O glossário de IA do TechCrunch

A inteligência artificial é um mundo profundo e convoluto. Os cientistas que trabalham nesse campo costumam confiar em jargões e gírias para explicar no que estão trabalhando. Como resultado, frequentemente temos que usar esses termos técnicos em nossa cobertura da indústria de inteligência artificial. É por isso que achamos útil reunir um glossário com definições de algumas das palavras e frases mais importantes que usamos em nossos artigos.

Iremos atualizar regularmente este glossário para adicionar novas entradas à medida que os pesquisadores continuam a descobrir métodos novos para avançar na fronteira da inteligência artificial enquanto identificam riscos emergentes à segurança.

Agente de IA

Um agente de IA refere-se a uma ferramenta que utiliza tecnologias de IA para executar uma série de tarefas em seu nome – além do que um chatbot de IA mais básico poderia fazer – como arquivar despesas, reservar bilhetes ou uma mesa em um restaurante, ou até mesmo escrever e manter código. No entanto, como já explicamos antes, há muitas peças em movimento nesse espaço emergente, portanto, diferentes pessoas podem significar coisas diferentes ao se referirem a um agente de IA. A infraestrutura também ainda está sendo construída para oferecer as capacidades previstas. Mas o conceito básico implica um sistema autônomo que pode se basear em múltiplos sistemas de IA para realizar tarefas em várias etapas.

Cadeia de raciocínio

Dada uma pergunta simples, o cérebro humano pode responder sem pensar muito nisso – coisas como “qual animal é mais alto entre uma girafa e um gato?” Mas em muitos casos, você frequentemente precisa de um papel e uma caneta para chegar à resposta certa porque existem etapas intermediárias. Por exemplo, se um fazendeiro tem galinhas e vacas, e juntos eles têm 40 cabeças e 120 pernas, você pode precisar escrever uma equação simples para chegar à resposta (20 galinhas e 20 vacas).

No contexto da IA, o raciocínio em cadeia de pensamentos para grandes modelos de linguagem significa dividir um problema em passos menores e intermediários para melhorar a qualidade do resultado final. Normalmente leva mais tempo para obter uma resposta, mas a resposta é mais provável de estar correta, especialmente em um contexto de lógica ou programação. Modelos de raciocínio são desenvolvidos a partir de modelos de linguagem tradicionais e otimizados para pensar em cadeia de raciocínios, graças ao aprendizado por reforço.

(Ver: Grande modelo de linguagem)

Aprendizado profundo

Um subconjunto de aprendizado de máquina autoaperfeiçoante em que algoritmos de IA são projetados com uma estrutura de rede neural artificial (ANN) em múltiplas camadas. Isso permite que eles façam correlações mais complexas em comparação com sistemas de aprendizado de máquina mais simples, como modelos lineares ou árvores de decisão. A estrutura dos algoritmos de aprendizado profundo se inspira nos caminhos interconectados dos neurônios no cérebro humano.

As IAs de aprendizado profundo são capazes de identificar características importantes nos dados por conta própria, em vez de exigir que engenheiros humanos definam essas características. A estrutura também suporta algoritmos que podem aprender com erros e, por meio de um processo de repetição e ajuste, melhorar suas próprias saídas. No entanto, sistemas de aprendizado profundo requerem muitos pontos de dados para produzir bons resultados (milhões ou mais). Além disso, normalmente leva mais tempo para treinar aprendizado profundo em comparação com algoritmos de aprendizado de máquina mais simples – portanto, os custos de desenvolvimento tendem a ser mais altos.

(Ver: Rede neural)

Ajuste fino

Isso significa um treinamento adicional de um modelo de IA que visa otimizar o desempenho para uma tarefa ou área mais específica do que era o foco anterior de seu treinamento – tipicamente alimentando novos dados especializados (ou seja, orientados para a tarefa).

Muitas startups de IA estão pegando grandes modelos de linguagem como ponto de partida para construir um produto comercial, mas competindo para aumentar a utilidade para um setor-alvo ou tarefa, suplementando ciclos de treinamento anteriores com ajuste fino baseado em seu próprio conhecimento e expertise específicos do domínio.

(Ver: Grande modelo de linguagem (LLM))

Grande modelo de linguagem (LLM)

Grandes modelos de linguagem, ou LLMs, são os modelos de IA usados por assistentes de IA populares, como ChatGPT, Claude, Gemini do Google, Llama da Meta, Copilot da Microsoft ou Le Chat da Mistral. Quando você conversa com um assistente de IA, interage com um grande modelo de linguagem que processa sua solicitação diretamente ou com a ajuda de diferentes ferramentas disponíveis, como navegação na web ou intérpretes de código.

Assistentes de IA e LLMs podem ter nomes diferentes. Por exemplo, GPT é o grande modelo de linguagem da OpenAI e ChatGPT é o produto de assistente de IA.

Os LLMs são redes neurais profundas feitas de bilhões de parâmetros numéricos (ou pesos, veja abaixo) que aprendem as relações entre palavras e frases e criam uma representação da linguagem, uma espécie de mapa multidimensional de palavras.

Esses são criados a partir da codificação dos padrões que encontram em bilhões de livros, artigos e transcrições. Quando você solicita um LLM, o modelo gera o padrão mais provável que se encaixa na solicitação. Ele então avalia a palavra mais provável seguinte após a última com base no que foi dito antes. Repita, repita e repita.

(Ver: Rede neural)

Rede neural

Rede neural refere-se à estrutura algorítmica em múltiplas camadas que fundamenta o aprendizado profundo – e, mais amplamente, todo o boom em ferramentas de IA gerativa após o surgimento de grandes modelos de linguagem.

Embora a ideia de se inspirar nos caminhos densamente interconectados do cérebro humano como uma estrutura de design para algoritmos de processamento de dados date de volta à década de 1940, foi a recente ascensão do hardware de processamento gráfico (GPUs) – por meio da indústria de videogames – que realmente desbloqueou o poder da teoria. Esses chips provaram ser adequados para treinar algoritmos com muitas mais camadas do que era possível em épocas anteriores – permitindo que sistemas de IA baseados em redes neurais alcançassem um desempenho muito melhor em muitos domínios, seja para reconhecimento de voz, navegação autônoma ou descoberta de medicamentos.

(Ver: Grande modelo de linguagem (LLM))

Pesos

Pesos são fundamentais para o treinamento de IA, pois determinam quanta importância (ou peso) é dada a diferentes características (ou variáveis de entrada) nos dados usados para treinar o sistema – moldando assim a saída do modelo de IA.

Colocando de outra forma, pesos são parâmetros numéricos que definem o que é mais saliente em um conjunto de dados para a tarefa de treinamento dada. Eles alcançam sua função aplicando multiplicação a entradas. O treinamento do modelo normalmente começa com pesos aleatoriamente atribuídos, mas à medida que o processo avança, os pesos são ajustados conforme o modelo busca chegar a uma saída que se aproxime mais do alvo.

Por exemplo, um modelo de IA para prever preços de casas que é treinado com dados históricos de imóveis para uma localização-alvo pode incluir pesos para características como o número de quartos e banheiros, se a propriedade é isolada, semi-isolada, se tem ou não estacionamento, uma garagem, e assim por diante.

Em última análise, os pesos que o modelo atribui a cada uma dessas entradas refletem o quanto elas influenciam o valor de uma propriedade, com base no conjunto de dados fornecido.

Fonte

Compartilhe esse conteúdo: