Hear from the AI Council at Qlik Connect, which takes place on June 3-5 in Orlando, Florida. Register today and save $100!
Glossário

Saia do jargão e aproveite a IA ao máximo

A linguagem da IA está sempre mudando, e pode ser difícil acompanhar a evolução dela. O objetivo deste glossário é apresentar os termos-chave da IA que você precisa conhecer para trabalhar com dados e analytics.

A

Assistentes de IA (copiloto de IA)

Ei, Siri! O que é um assistente de IA? Essas soluções com tecnologia de IA são capazes de entender e responder a comandos em linguagem natural. A interface semelhante à humana significa que as pessoas podem dar comandos de voz para que o assistente execute tarefas e forneça respostas personalizadas. Os assistentes de IA são cada vez mais comuns. Presentes em diversos dispositivos inteligentes, como Alexa (Amazon), Siri (Apple), Copilot (Microsoft) e Google Assistant, eles são a porta de entrada do público para a IA.

A

Algoritmo

Todo modelo de IA precisa de um caminho ou conjunto de instruções para seguir. Esses são os algoritmos, que informam a um modelo como operar e determinam sua capacidade de aprendizado. Eles fazem isso por meio de dados de treinamento, que são, então, utilizados como base para a execução de tarefas. À medida que concluem mais tarefas, os algoritmos podem aprender com resultados obtidos versus resultados desejados e refinar o processo de forma adequada. Como os algoritmos podem se autorrefinar dessa forma, os programadores geralmente precisam gerenciá-los de perto para garantir que estejam agindo conforme o planejado, evitando o surgimento de vieses. Hoje em dia, no aprendizado de máquina e na IA, há muitos algoritmos diferentes que servem a tarefas diferentes. Os cientistas de dados e engenheiros de aprendizado de máquina devem entender como e por que aplicar uma determinada abordagem de algoritmos com base no problema, nos dados e nos objetivos em questão. 

A

Análise aumentada

A análise aumentada permite aos usuários de dados interagir com as informações em um nível capaz de aprimorar a cognição humana. De acordo com o Gartner, isso envolve "o uso de tecnologias subjacentes, como aprendizado de máquina e IA, para auxiliar na preparação dos dados e na geração e explicação dos insights". Essas tecnologias elevam o nível de capacidades analíticas, permitindo que as pessoas explorem os dados de um modo mais aprofundado. Em última análise, isso amplia a capacidade humana de interagir com os dados em um nível contextual e permite que um grupo mais amplo de pessoas use ferramentas de analytics.

Quer saber como a IA está transformando o cenário de business intelligence?

Leia o New Wave Report for Augmented Business Intelligence, da Forrester

A

Integração de dados aumentada

As tarefas de integração de dados normalmente consomem muito tempo dos profissionais de dados. Embora sejam importantes, são tarefas de valor relativamente baixo e não aproveitam ao máximo a capacidade desses profissionais. A integração de dados aumentada usa a IA para acelerar esses processos e poupar o valioso tempo dos experts. De acordo com o Gartner, a automação do mix de gerenciamento de dados pode reduzir em 45% o tempo gasto em processos manuais de dados. Isso permite às organizações escalar suas operações para que os experts de dados se concentrem em atividades mais críticas ou complexas.

The Gartner® 2023 Magic Quadrant™ for Data Integration Tools

Leia e saiba mais sobre os pioneiros do setor.

A

Qualidade de dados aumentada

A qualidade dos dados é um componente fundamental para as iniciativas de governança de dados de uma organização. Ela avalia a precisão, a completude e o viés dos conjuntos de dados, identificando se eles servem ao propósito desejado. Sem validar a qualidade das informações que estão sendo analisadas, os sistemas automatizados não vão funcionar conforme o esperado. A introdução da automação nesse processo – ou a qualidade de dados aumentada – acelera a execução das tarefas. Ela é particularmente útil para validar grandes conjuntos de dados, um processo que consome muito tempo para ser executado manualmente. Este é o melhor dos mundos – dados de alta qualidade e eficiência em tarefas fundamentais, mas potencialmente demoradas.

A

Auto-classificação

Os processos de analytics nem sempre têm como objetivo revelar insights granulares a partir de conjuntos de dados complexos. Para algumas necessidades organizacionais, pode ser suficiente categorizar documentos ou outros ativos em categorias mais abrangentes. Assim como a análise de sentimento, esse processo pode ser aprimorado pela IA na forma da auto-classificação. Baseada em critérios pré-definidos, a auto-classificação escaneia documentos e atribui tags e rotulagens sem a necessidade de interação humana.

Essa tarefa pode ser curada de acordo com as necessidades específicas de cada organização, por meio da adaptação das palavras-chave que o modelo está buscando. Essa tarefa pode ser curada de acordo com as necessidades específicas de cada organização, por meio da adaptação das palavras-chave que o modelo está buscando.

A

AutoML

AutoML™ é a solução desenvolvida para ajudar as equipes de analytics a usar o aprendizado de máquina (ML) sem precisar de um conhecimento especializado. O Gartner descreve o AutoML como a automação das tarefas de preparação de dados, engenharia de recursos e engenharia de modelos - três tarefas que tradicionalmente exigem conhecimentos específicos para serem concluídas. Ele capacita os desenvolvedores com conhecimento limitado de ML a concluir tarefas altamente complexas e treinar modelos de alta qualidade específicos para suas necessidades de negócio, ajudando-os a passar da análise histórica para a análise preditiva para mais casos de uso.

Como é o AutoML em ação?

Esta demonstração passo a passo guiará você na criação, configuração e implantação de um experimento de ML, fornecendo as definições necessárias para ajudá-lo a começar a trabalhar.

A

Insights automatizados

Os insights automatizados permitem que as organizações ganhem em todos os sentidos. Ao utilizar a IA, os usuários têm acesso a dados de inteligência facilmente compreensíveis e acionáveis a partir de grandes volumes de dados, sem a necessidade de fazer análises manuais que dependam de conhecimento técnico..

Ou seja: os colaboradores sem conhecimento aprofundado da tecnologia conseguem tomar decisões de negócio mais rapidamente. As soluções de insights automatizados utilizam aprendizado de máquina, processamento de linguagem natural ou análises estatísticas para identificar os resultados e as ações sugeridas de um jeito simples.

A

Balanceamento

Às vezes, os conjuntos de dados contém recursos não balanceados, em que uma classe é muito superior às outras. A isso se dá o nome de classe não balanceada, o que precisa ser levado em conta no processo de aprendizado de máquina. O processo de balanceamento é bastante comum para os cientistas de dados. Caso um conjunto de dados fique não balanceado, isso pode ter um impacto significativo na precisão da análise ou gerar um modelo de IA enviesado. Diversos métodos podem ser usados para corrigir isso, como a reamostragem ou a geração de dados sintéticos. Escolher o método mais apropriado depende das características específicas do conjunto de dados.

A

Cientista de dados generalista

Analytics, IA e dados não são mais exclusividade de especialistas técnicos. E isso fica cada vez mais claro, à medida que diversas indústrias e profissionais utilizam dados em suas atividades. Está surgindo uma nova função - o "cientista de dados generalista" - que se refere aos analistas de negócios que se envolvem com a ciência de dados em suas funções, sem serem especialistas dedicados em codificação ou estatística.

Por exemplo: o cientista de dados generalista tende a ser mais orientado ao negócio, aproximando analytics e tomadas de decisão estratégicas. Ele aprimora o trabalho do cientista de dados. Por meio dos seus insights, ele ajuda a organização a tomar decisões baseadas em dados, possibilitando que os especialistas se dediquem a atividades mais técnicas.

A

Classificação

O processo de classificação usa aprendizado de máquina para automatizar a categorização básica de dados ou documentos em grupos pré-definidos. Imagine que você colocou diversos pares de meias misturados em uma gaveta. Mas ao abrir a próxima gaveta, elas foram automaticamente organizadas nos pares corretos, classificadas em 'esportivas', 'sociais' e 'casuais'. Isso mostra o que os algoritmos de classificação podem fazer. Para serem bem-sucedidos, os modelos precisam ser treinados para atribuir determinadas tags ou palavras-chave às categorias corretas. Esse processo ensina a eles como classificar futuros conjuntos de dados de modo autônomo em categorias respectivas e relevantes. Na prática, os algoritmos de classificação oferecem um apoio decisivo para que as empresas obtenham insights preditivos e encontrem padrões ocultos. 

A

BI cognitivo

Para capacitar as organizações a adotar a tomada de decisões baseada em dados, o BI cognitivo combina processos tradicionais de business intelligence (BI) com tecnologias de computação cognitiva, como IA e processamento em linguagem natural. A combinação de tecnologias transforma o modo como os dados são usados nas organizações, da área de Marketing à Financeira, fornecendo insights orientados por dados que são valiosos, acessíveis e viáveis. 

Veja o vídeo para entender como o Qlik Sense® pode impulsionar a sua empresa com análise aumentada, fornecendo todo o poder da ciência de dados avançada para os tomadores de decisão.

A

IA conversacional

Para que a IA possa se popularizar, ela precisa entender, processar e simular a linguagem humana. É aqui que entra a IA conversacional, um tipo de modelo que torna possível os seres humanos conversarem com ela. A IA conversacional é regularmente usada pelas equipes de atendimento ao cliente na forma de chatbots, que respondem a perguntas e fazem a verificação de problemas analisando palavras-chave e fornecendo respostas pré-definidas. Essa tecnologia também conta com um componente de analytics conversacional que permite às organizações aprender a partir das interações com os clientes entendendo e derivando dados das conversas com humanos.

Descubra como o Qlik Sense pode ajudar a sua empresa a aproveitar insights usando linguagem natural, capacitando mais pessoas do que nunca a tomar decisões orientadas por dados.

Confira a facilidade de uso do Qlik Sense com este tour autoguiado.

A

Governança de dados

Para que a análise de dados seja efetiva, as organizações precisam definir regras e padrões internos que estabeleçam como os dados são coletados, armazenados, processados e descartados. A governança de dados é um termo amplo, que abrange essa responsabilidade. Além de garantir a segurança dos dados, ter uma estrutura de governança implementada demonstra que os dados em posse da organização são confiáveis e não estão sendo usados de modo inapropriado. O papel cada vez mais importante dos dados nas estratégias comerciais tem promovido a evolução das políticas de privacidade das empresas, fazendo com que a governança de dados seja fundamental.

A

Rotulagem de dados

A rotulagem de dados é o processo de tornar os dados compreensíveis e utilizáveis por algoritmos de aprendizado de máquina, adicionando rótulos ou etiquetas descritivas ou informativas. Ao rotular os dados, os algoritmos podem ser treinados para fazer predições ou classificações com base nessas informações. Por sua vez, os algoritmos podem começar a fazer predições precisas quando receberem dados novos e sem rotulagens.

A

Inteligência da qualidade dos dados

Um modelo de IA é tão bom quanto os dados que o alimentam. Caso o modelo esteja sendo treinado com dados de má qualidade, isso pode gerar resultados imprecisos e pouco confiáveis. A inteligência da qualidade dos dados é a base de uma boa estratégia de gerenciamento de dados, quando as organizações analisam a força dos dados e as práticas de gestão deles. É fundamental que ações sejam tomadas utilizando esses insights. Sem eles, é impossível garantir que as decisões orientadas por dados dados estejam sempre baseadas em informações confiáveis.

Leia o Definitive Guide to Data Quality e descubra como as empresas podem garantir que seus dados estejam de acordo com os padrões, sem comprometer a segurança e a governança.

A

Ciência de dados

Extrair predições e insights valiosos a partir dos dados, principalmente de grandes volumes de dados, requer uma combinação de diversas disciplinas, como estatística, ciência da computação e matemática. Essa combinação é a ciência de dados, capaz de transformar dados brutos em informações que podem ser usadas para identificar tendências e tomar decisões.

Os profissionais de ciência de dados, ou cientistas de dados, normalmente têm habilidades avançadas em dados, mas podem sese envolver em uma série de situações, desde a coleta de dados até a modelagem e a implantação de um modelo de IA em um contexto de negócios. Essa disciplina foi rapidamente adotada por diversos segmentos, já que as empresas estão buscando usar os dados de modo mais eficaz para tomar decisões.

A

Aprendizagem profunda

Todos os tipos de IA tentam imitar o processo de tomada de decisões do cérebro humano, mas algumas sub-disciplinas fazem isso de um modo mais autêntico. Por exemplo: a aprendizagem profunda é um tipo de aprendizado de máquina baseado nas redes neurais, tanto em sua estrutura quanto em seu uso de camadas interconectadas de neurônios artificiais para processar dados e aprender a partir deles.

Segundo a Forrester, a técnica é melhor usada para "construir, treinar e testar redes neurais que, probabilisticamente, predizem resultados e/ou classificam dados não estruturados". Na prática, isso significa que a aprendizagem profunda é a base do reconhecimento de imagens e de fala, da tradução de idiomas, da direção autônoma e dos sistemas de recomendação.

A

Experimento

Um experimento é o processo usado para treinar, avaliar e aperfeiçoar os modelos de aprendizado de máquina. Altamente estruturados, eles permitem que os cientistas de dados e usuários de AutoML consigam organizar e gerenciar todas as execuções de aprendizado de máquina. Esse exercício requer diversas tentativas para que o modelo funcione conforme o desejado e envolve processos de visualização e comparação entre as execuções. Os experimentos têm um papel-chave na identificação de padrões, no refinamento do modelo e para garantir que tudo esteja pronto para implementação no mundo real.

A

IA explicável

A IA é ótima para gerar insights e predizer resultados. Mas é tão ou mais importante entender como ela chega às conclusões. A explicabilidade é fundamental para determinar que ações devem ser tomadas para obter os melhores resultados, fomentar o entendimento e gerar confiança. Porém, nem todos os modelos de aprendizado de máquina são explicáveis. Assim, ao decidir quais algoritmos usar, precisamos avaliar a necessidade de métricas de explicabilidade em relação ao contexto nos quais as decisões são tomadas. Sem a explicabilidade, as organizações podem ter que lidar com vieses indesejados no processo de tomada de decisões.

A

Previsão

Um benefício fundamental do uso da IA na análise de dados é obter informações históricas e fazer predições dentro de um período de tempo específico. Essas previsões utilizam um padrão histórico de dados e usam regressões únicas ou variadas para predizer os resultados futuros.

Os programas de planejamento da IA podem prever eventos futuros avaliando quantidades imensas de dados estruturados e não estruturados, fazendo conexões e identificando padrões de um jeito muito mais sofisticado do que os sistemas de previsão tradicionais. Isso não só permite que as organizações tomem decisões com visão de futuro, mas também que considerem uma variedade de cenários, caso as coisas não saiam como planejado.

A

Modelo base

Antes que um modelo de IA generativa seja desenvolvido com dados de treinamento e uma aplicação específica em mente, eles são chamados de 'modelo base'. Eles formam a base na qual algoritmos mais complexos são construídos, adaptados de acordo com o local onde a empresa quer implementá-los. Geralmente, esses modelos base são de grande escala e foram treinados em conjuntos de dados extensos. Esse é o caso do GPT-3 e GPT-4, da OpenAI, usados no ChatGPT.

A

IA generativa

Embora a IA tenha infinitas aplicações, ela não é normalmente considerada uma substituta para funções criativas. É aí que entra a IA generativa. Os modelos generativos são projetados especificamente para sintetizar novos conteúdos, como texto, áudio, imagens, vídeo ou música.

No entanto, a tecnologia ainda precisa da interação humana e de grandes volumes de dados para entender os padrões e estruturas necessários para gerar conteúdos novos e complexos. Mas a IA também tem questões éticas envolvidas. Ela pode ser usada para criar conteúdos falsos, como no caso dos deepfakes.

Ainda não sabe como aproveitar ao máximo a IA generativa?

Vá além do hype, veja o que os colegas da área estão dizendo no nosso GenAI Benchmark Report e descubra se a sua empresa pode se beneficiar.

A

Análise de fatores-chave

A análise de fatores-chave (KDA - Key driver analysis)) identifica os fatores que estão impactando um resultado em particular e analisa a importância relativa deles no proceso de predição. Ela é geralmente aplicada na condução de pesquisas de mercado ou de análises de relacionamento com o consumidor, ajudando as organizações a entender os motivadores por trás do comportamento do consumidor e os resultados comerciais desejados, como a fidelidade do cliente. A IA pode aprimorar essa análise processando conjuntos de dados imensamente complexos e identificando padrões e relações, trabalhando de modo reverso até que os fatores mais importantes sejam encontrados.

A

Large Language Model (LLM)

Já pensou em como a IA é capaz de criar conteúdo como texto, música, imagens e vídeo? São os LLMs que permitem isso. Esses algoritmos de aprendizagem profunda sustentam produtos e soluções de IA generativa, como o ChatGPT, aprendendo com as informações existentes para produzir algo novo.

Como diz o Gartner, os LLMs são treinados em "grandes quantidades" de dados, que eles precisam para trabalhar de forma eficaz, inferindo padrões e relações entre palavras e frases para gerar um resultado criativo. Isso significa que eles exigem informações em grande quantidade e publicamente disponíveis na Internet, o que permite que os produtos alimentados por LLMs se autoaprendam e melhorem continuamente à medida que são usados.

A

Low-Code/No-Code

A ascensão de serviços e produtos digitais tem feito com que o desenvolvimento de softwares seja uma das habilidades mais valorizadas pelos empregadores. No entanto, a demanda ainda é maior do que a oferta. Para lidar com isso, as organizações estão usando plataformas low-code ou no-code que permitem a usuários sem capacitação técnica contribuir no processo de desenvolvimento dos softwares – mesmo com pouco conhecimento de codificaçãoo. Isso geralmente assume a forma de interfaces modulares, no estilo arrastar e soltar ou baseadas em assistentes, que permitem que as pessoas criem sem precisar codificar.

Dependendo das necessidades, uma empresa pode implementar ferramentas low-code (que requerem pouco envolvimento de desenvolvedores experts) ou no-code (que não requerem nenhum envolvimento de desenvolvedores experts). Isso ajuda a democratizar a capacidade de criar sistemas de IA e garante que as organizações usem o tempo dos desenvolvedores especialistas de forma eficaz.

A

Aprendizado de máquina

O aprendizado de máquina é uma subdisciplina da IA que permite que sistemas de computador aprendam a partir de dados sem terem sido explicitamente programados. Em última análise, a ferramenta é usada para revelar predições, padrões ocultos e relações. Geralmente, esse é um caso clássico de 'quanto mais dados, melhor’ — os algoritmos de aprendizado de máquina aprendem a partir de inputs e aprimoram seus resultados com mais informações. Isso possibilita aplicativos como reconhecimento de imagens, processamento de linguagem natural, aprendizado supervisionado e não supervisionado e muito mais.

Leia o nosso guia prático e entenda como implementar modelos de aprendizado de máquina realmente impactantes na sua empresa.

A

Criação de modelos

O projeto e a criação de modelos de IA pode ser um processo longo e complexo que exige expertise em ciência de dados e aprendizado de máquina. A criação de modelos é a sequência de tarefas necessária para desenvolver um modelo que esteja pronto para aplicações no mundo real, começando com a coleta e a preparação de dados de treinamento para o modelo e finalizando com a sua implementação e a manutenção. Isso exige uma combinação de habilidades técnicas, criatividade e capacidade de resolução de problemas. 

A

Implementação do modelo

Depois que um modelo de IA é treinado, ele pode ser implementado no mundo real, onde dados novos ou em tempo real são executados no modelo para atribuição de notas (‘score)’ ou para fazer predições. Mas deixá-lo solto em um contexto prático não é o suficiente – o processo de implementação do modelo não acaba aqui. Assim que tiver sido disponibilizado para usuários finais ou outros sistemas de software, o modelo será apresentado a uma gama ampla de dados novos e inéditos, que vão influenciar os padrões e as conexões que encontrar. Os modelos de IA precisam ser testados e avaliados constantemente para garantir que eles continuem entregando os resultados desejados.

A

Desvio de modelo (ou 'Mudança de modelo')

Os modelos de IA são baseados em conjuntos de dados, que são os bancos de informação usados por eles para tomar decisões e fornecer resultados. Porém, se esses conjuntos de dados não forem atualizados ao longo do tempo, isso pode levar à degradação do modelo, porque as premissas nas quais eles se baseiam já não são mais verdadeiras. Esse é o 'desvio de modelo’ – que leva a predições menos precisas ou relevantes e a um aumento de falsos positivos e negativos. Caso o desvio de modelo não seja detectado ou abordado rapidamente, ele pode comprometer a integridade dos modelos e os processos e aplicações do mundo real.

A

Treinamento de modelo

Ao desenvolver sistemas de IA, é importante expor cada modelo a dados de qualidade e exemplos de resultados ou associações corretas. Esse processo de treinamento de modelos – que os ensina a reconhecer padrões, fazer predições ou realizar tarefas específicas — é necessário para servir de base para os resultados gerados por eles. Conforme o contexto ou as necessidades organizacionais em torno de um modelo mudam – e à medida que o modelo continua a aprender – pode ser necessário mais treinamento para compensar a exposição a dados menos estruturados. Caso o modelo não receba treinamento periódico, o risco de vieses ou resultados de baixa qualidade aumenta.

A

Consulta em linguagem natural (NLQ)

À medida que as soluções de IA se tornam mais avançadas, elas dependem de volumes de dados maiores. Para que elas estejam acessíveis a todos, é importante que os usuários sem capacitação técnica possam fazer consultas de dados ('queries') usando a linguagem do dia a dia. É aí que entra a consulta em linguagem natural (NLQ - Natural language query).

Sistemas de IA, como assistentes virtuais, usam NLQ para analisar os inputs dos usuários, pesquisar dados relevantes e fornecer uma resposta. Ou, segundo o Gartner, "transformar esses inputs em informações estruturadas e codificadas". Dependendo da sofisticação da solução NLQ, as consultas dos usuários podem ser feitas por texto ou verbalmente. Isso elimina a necessidade de inputs não baseados em linguagem e garante que os sistemas de IA estejam disponíveis a todos.

A

Rede neural

Inspiradas no cérebro humano, as redes neurais são a base dos sistemas de IA e aprendizado de máquina. Os modelos computacionais são desenvolvidos para processar dados e aprender com eles. E de modo parecido às sinapses, consistem de nós interconectados (um ponto de dado em uma rede ou gráfico), organizados em camadas. Há três tipos de camadas: uma camada de input, camadas ocultas e uma camada de output. Essas camadas determinam como as redes neurais aprendem e estabelecem relações complexas a partir de dados, permitindo que elas analisem essas relações em um nível não linear.

A

IA preditiva

Essencial para a tomada de decisões baseada em dados, a IA preditiva identifica padrões em dados históricos para gerar previsões, predições e estimativas em relação a resultados ou eventos futuros. Os algoritmos de IA podem analisar conjuntos de dados imensos e complexos que transcendem a cognição humana. Ou, conforme diz o Gartner, eles respondem à pergunta "o que deverá acontecer?". Essa previsão aprimorada, que vai além da capacidade da análise preditiva tradicional, permite às organizações mapear os cenários futuros com base em processos que usam um volume enorme de dados.

A

Análise preditiva

O analytics deve ser baseado em dados históricos. Afinal de contas, não é possível analisar algo que ainda não ocorreu. Mas isso não significa que eles não possam ser usados para fazer previsões sobre resultados futuros. Esse é o princípio da análise preditiva, definida pela IBM como a "combinação de dados, como modelos estatísticos, técnicas de mineração de dados e aprendizado de máquina". Ao se basear em dados históricos, a análise preditiva pode identificar padrões para desenvolver modelos preditivos que vão prever eventos futuros, tendências e resultados. As organizações implementam esse tipo de análise para tomar decisões embasadas e ter uma vantagem competitiva.

Veja a análise preditiva em ação neste tour guiado. Ele vai colocar você no papel de um gerente de vendas que está questionando a precisão das suas previsões e tentando entender por que os índices de fechamento de negócio das equipes estão abaixo das expectativas.

A

Prompt

Não importa o quão avançado é o modelo ou quão complexo é o conjunto de dados no qual ele se baseia. Fundamentalmente, a IA depende de algum tipo de input humano. O prompt é o ponto de partida para as interações com os modelos de IA, fornecendo uma consulta ou instrução que orienta o sistema a executar uma determinada tarefa. O prompts podem variar bastante, de questões simples baseadas em linguagem natural a solicitações complexas e cheias de contexto. Conforme consumidores do mundo vão constatando, por meio de experimentos com a IA generativa, a clareza de um prompt pode ter um impacto significativo na precisão e na relevância do resultado gerado pelo modelo. Por exemplo: os prompts podem ser ineficazes caso não se adequem às limitações e capacidades do modelo.

A

Regressão

Enquanto os modelos de IA podem ser baseados em todos os tipos de dados, a regressão é uma técnica de aprendizado de máquina supervisionada, usada especificamente para fazer predições com base em valores numéricos. A regressão linear e a logística são os dois tipos mais comuns de regressão. O modelo de regressão linear traça uma linha (ou curva) de melhor ajuste entre os pontos de dados e prevê valores contínuos. Em contraste, a regressão logística é um método binário que avalia a possibilidade de algo acontecer ou não – em essência, ela responde à pergunta "sim ou não?". A regressão é particularmente benéfica para a tomada de decisões em áreas que usam dados quantitativos, como finanças, economia, serviços de saúde e engenharia, incluindo aplicações como previsão de preços de ações e estimativa de receitas.

A

Aprendizado autossupervisionado e não supervisionado

Fazendo um contraponto ao aprendizado supervisionado, às vezes, a escassez de dados rotulados dificulta o treinamento dos modelos de IA. O aprendizado autossupervisionado é um médoto capaz de criar tarefas a partir de dados não rotulados, utilizando os padrões e as estruturas inerentes para predizer ou gerar partes do mesmo conjunto de dados. Por exemplo: o recurso ‘image inpainting’ pode preencher as partes faltantes de uma imagem com base nos pixels ao redor. Já o aprendizado não supervisionado vai ainda mais longe. Ele ajuda a revelar insights ocultos treinando o modelo para encontrar padrões, estruturas ou agrupamentos sem nenhum alvo ou rótulo explícito. Essa é a base de tecnologias como a detecção de anomalias. 

A

Análise de sentimento

A IA é capaz de entender as emoções expressas em um fragmento de texto? Essa habilidade continua reservada aos seres humanos. Mas por meio da análise de sentimento, a IA pode fazer algo similar – ela só precisa da nossa ajuda no começo. Para identificar o sentimento de modo eficaz em um fragmento de texto, os algoritmos precisam ser treinados em dados rotulados para associar determinadas palavras a emoções.

A Forrester descreve a análise de sentimento como "a classificação automatizada de um comentário on-line como positivo, neutro ou negativo". No entanto, é importante observar que modelos mais complexos podem oferecer uma avaliação mais detalhada e são particularmente valiosos para compreender a opinião pública e grandes volumes de texto.

A

Valor Shapley

Ao desenvolver um modelo preditivo, é preciso considerar que alguns valores são mais impactantes que outros para influenciar as predições. No aprendizado de máquina, os desenvolvedores dedicam atenção especial ao valor Shapley para explicar a importância das características individuais para determinar os resultados preditos.

O conceito é adaptado da teoria dos games, que procura determinar a contribuição de cada jogador em um game cooperativo. O objetivo desse conceito é alocar de modo justo e matemático o 'crédito' do output do modelo entre os seus recursos de input. Isso fornece um insight valioso sobre o funcionamento de um modelo e estabelece como ele faz predições, aumentando a transparência e estimulando um nível mais alto de confiança.

A

Dados estruturados e não estruturados

Os conjuntos de dados são considerados 'estruturados' ou 'não estruturados' de acordo com a definição e a organização deles. Enquanto os dados estruturados são geralmente armazenados em tabelas e bancos de dados – o que torna mais fácil encontrá-los e analisá-los – os dados não estruturados carecem de categorização ou formato pré-definidos. Geralmente, eles surgem na forma de texto, como e-mails, postagens nas redes sociais e feedback dos consumidores, que são mais difíceis de processar e tirar conclusões precisas. A IA é particularmente valiosa na extração de insights de dados não estruturados, permitindo que as organizações extraiam informações díspares e anteriormente não utilizáveis para obter insights acionáveis.

A

Aprendizagem supervisionada

Assim como ocorre com estudantes em uma sala de aula, às vezes, demonstrar o caminho até a resposta correta pode ser o melhor método de ensino. O processo de aprendizagem supervisionada envolve treinar um modelo de IA com um conjunto de dados rotulado e ensinar a ele os outputs desejados. Como ele aprendeu a partir das respostas corretas conhecidas, a aprendizagem supervisionada possibilita que o algoritmo faça uma generalização e produza suas próprias decisões ou predições com base em dados não visualizados. Esse princípio serve de base para diversas técnicas, como processamento de linguagem natural e análise de regressão.

A

Dados sintéticos

Quando não houver um volume suficiente de dados do mundo real para treinar um modelo de IA, dados sintéticos são gerados artificialmente. Eles imitam todas as características e propriedades estatísticas de dados genuínos, simulando os padrões, as distribuições e as estruturas. Isso também diminui as preocupações com a privacidade. Dessa forma, os desenvolvedores podem trabalhar com informações sem colocar em risco os dados do consumidor. De acordo com o IDC, o recurso "ajuda a eliminar alguns dos vieses que resultam do treinamento realizado em uma quantidade pequena de dados".

No entanto, a geração de dados sintéticos requer uma análise cuidadosa para garantir que eles representem de modo autêntico as propriedades do conjunto de dados original. De outra forma, haveria um risco inerente de o modelo não entregar predições ou decisões precisas.

A

Análise de séries temporais

Quando uma sequência de pontos de dados é coletada em intervalos consistentes durante um período definido, é possível implementar a análise de séries temporais para revelar padrões, tendências e estruturas subjacentes. A informação obtida pode variar, da receita de uma empresa à frequência de vendas. Esse é um método amplamente usado, que permite às organizações obter insights sobre tendências e tomar decisões baseadas em dados, seja analisando o histórico ou fazendo predições.

A

Dados de treinamento

Todos os modelos de IA começam do zero. Para começar a oferecer outputs, eles precisam primeiro aprender a usar dados de treinamento, que os ensinam a operar. Ao alimentar o modelo com dados de input, ele aprende regras, relações e padrões.

Mas a qualidade, a quantidade e a variedade dos dados de treinamento são fatores críticos. Esses são a base sobre a qual a IA se baseia no futuro; portanto, se os dados forem insuficientes em termos de volume ou qualidade, ou se apresentarem algum viés, o modelo continuará a expressar o mesmo sentimento em sua análise. Para garantir que os modelos de IA sejam robustos, os conjuntos de dados de treinamento precisam ser diversos e representativos.

A

Cenários what-if (ou Cenários hipotéticos)

Vamos supor que você queira que o seu modelo de IA forneça determinados resultados. Mas como saber quais são as variáveis que precisam ser ajustadas? Os cenários what-if têm como objetivo ampliar a transparência, a justiça e a confiabilidade da IA, explorando os prováveis resultados ou as consequências de situações hipotéticas. Isso pode ser tão simples quanto "E se um fornecedor importante sair do mercado?" ou tão criativo quanto "E se o modelo de IA se tornar sensível?". Ao investigar o impacto das diversas variáveis do modelo, é mais fácil entender as limitações dele e o que fazer para torná-lo mais robusto. E dessa forma, além de ajudar as organizações a tomar decisões mais embasadas, elas se tornam mais responsáveis por seus modelos.