Índice 3p6a5k
Qualquer pessoa que for questionada sobre como o ChatGPT, o mais popular agente de IA da atualidade funciona, muitos terão a resposta na ponta da língua: inteligência artificial. Mas essa resposta é muito vaga. Apesar de ser um dos campos de estudo de maior pesquisa e desenvolvimento na Computação nos dias atuais, a inteligência artificial abrange vários temas científicos. 4v3f5n
Um deles é a chave por detrás do funcionamento do ChatGPT e da maior parte dos agentes de IA disponíveis na web: os LLMs. Neste artigo iremos explorar em detalhes como esse conceito revolucionou a inteligência artificial e nosso mundo.
O que são os Large Language Models (LLMs)? 3a5w5c
Large Language Models (LLMs, Grandes Modelos de Linguagem, em português) são algoritmos de Deep Learning (Aprendizado Profundo, em português) capazes de realizar uma série de tarefas de Natural Language Processing (Processamento de Linguagem Natural, em português). Ufa, quantas siglas, não é mesmo?
Os LLMs usam modelos transformers e são treinados usando conjuntos de dados (datasets, em inglês) massivos. Alguns exemplos de datasets populares são: LAION-2B-en, CCAW e WikiText-103. Um modelo transformer pode parecer que se trata de um robô que se transforma em um carro, mas no campo da IA ele consiste na arquitetura mais comum de um LLM.
O transformer é composto por um encoder (codificador, em português) e um decoder (decodificador, em português). Basicamente o encoder se encarrega de separar as palavras de uma frase ou texto em pequenas partes chamadas tokens, e o decoder realiza operações matemáticas para identificar relações entre esses tokens.

O grande diferencial dos transformers em relação à arquitetura utilizada anos atrás, LSTM (Long Short Term Memory, ou Memória Longa de Curto Prazo), é que os transformers trabalham com mecanismos de auto-atenção, ou seja, são capazes de aprender mais rápido ao considerar partes de uma frase ou até mesmo seu contexto, para gerar predições.
LLMs são sistemas versáteis de IA que, além de serem capazes de processar a linguagem humana, podem também realizar outras tarefas como análise de estruturas proteicas e geração de código de programação. Para funcionarem de forma eficiente, os LLMs precisam de pré-treinamento e ajustes cuidadores para lidar com funções como a classificação de texto, sumarização, e resposta a perguntas, as tornando valiosas para setores como saúde, finanças, e também ao entretenimento.
Componentes chave 1v2l60
LLMs são compostos de múltiplas camadas de redes neurais. Em uma rede neural (Neural Network, em inglês), basicamente uma variável é utilizada como entrada, processada com diferentes pesos e equações matemáticas por uma ou várias camadas, e gerado um valor de saída.
O primeiro tipo de rede neural presente nos LLMs é a camada de incorporação (embedding layer, em inglês). Ela é responsável pelo processo de embedding, capturando a semântica e o significado sintático da entrada, de forma que o modelo possa entender o contexto.
Depois temos a camada de feedforward (FFN, Feedforward Network, em inglês) que é composta de múltiplas camadas interconectadas que transformam as entradas de embedding. Nesse processo, essas camadas permitem que o modelo colete abstrações de nível mais alto, ou seja, entenda a intenção do usuário com a entrada de texto.

Após, temos a camada recorrente que interpreta as palavras no texto de entrada em sequência. Ela é responsável por capturar o relacionamento entre as palavras em uma frase.
Por último, mas não menos importante, temos o mecanismo de atenção que permite à LLM se focar em partes únicas do texto de entrada que são relevantes para a tarefa designada. Essa camada permite ao modelo gerar as saídas mais apropriadas e precisas.
Como funcionam 3y4z3i
Agora que sabemos o que são LLMs e quais são seus componentes chaves, podemos compreender de forma mais clara seu funcionamento. Basicamente os LLMs baseadas em transformers recebem uma entrada, codificando-a e, em seguida, decodificando-a para produzir uma previsão de saída. Porém, antes que um LLM possa receber uma entrada de texto e gerar uma previsão de saída, ele precisa de treinamento, para que possa cumprir funções gerais, e de ajustes finos (fine tuning, em inglês), que o habilitem a executar tarefas específicas.
O pré-treinamento (Pre-training, em inglês) é um processo clássico no campo do Aprendizado de Máquina (Machine Learning, em inglês) dentro da Inteligência Artificial. Esse processo, como o próprio nome diz, consiste em pré-treinar LLMs usando grandes conjuntos de dados textuais de trilhões de palavras de sites como Wikipedia, GitHub, entre outros. Afinal de contas, o LLM precisa aprender a partir de algum lugar, como uma criança pequena, não é mesmo?
Durante esse estágio, o LLM realiza o chamado aprendizado não-supervisionado (Unsupervised Learning, em inglês) – um processo no qual os conjuntos de dados são apenas lidos sem instruções de manipulação específicas. Ou seja, sem um “instrutor”, o próprio algoritmo de IA do LLM fica encarregado de aprender o significado de cada palavra e as relações entre elas. Além disso, o LLM também aprende a distinguir palavras com base no contexto. Por exemplo, ela aprende a entender se “direita” tem significado de “correto” ou apenas é “o oposto de esquerda”.
Já o processo de ajuste fino (Fine tuning, em inglês) serve para justamente “ajustar” o LLM para executar de forma eficiente tarefas específicas, como tradução de texto, otimizando seu desempenho. O ajuste de prompts (perguntas e instruções dadas ao LLM) funciona como uma espécie de ajuste fino, uma vez que é capaz de treinar o modelo para executar uma certa tarefa.

Para que um modelo de linguagem de grande porte execute uma tarefa específica, como tradução, ele deve ser ajustado para essa atividade específica. O ajuste fino otimiza o desempenho de tarefas específicas.
O ajuste de prompts cumpre uma função semelhante ao ajuste fino, treinando um modelo para executar uma tarefa específica por meio de prompts de poucas tentativas, ou prompts de zero tentativas. Abaixo temos um exemplo de um exercício de “análise de sentimentos” através de um prompt de poucas tentativas:
Texto de entrada: Essa casa é linda!
Sentimento da frase: Positivo
Texto de entrada: Essa casa é horrível!
Sentimento da frase: Negativo
Conforme os resultados obtidos nesse exemplo, o LLM entenderia, por meio do significado semântico de “horrível” e porque um exemplo oposto foi fornecido, que o sentimento do usuário no segundo exemplo é “negativo”.
Cenários de uso 6l6e1t
Conforme mencionamos anteriormente, os LLMs podem ser utilizadas para vários propósitos:
- Recuperação de informação: Nesse caso podemos imaginar seu uso em buscadores da web, como o Google ou Bing. Quando um usuário utiliza o recurso de busca desses serviços, ele está utilizando LLMs para produzir informações na forma de resposta para sua solicitação. Os LLMs são capazes de recuperar informações, sumarizá-las e comunicar a resposta na forma de uma conversa com o usuário.
- Geração de texto e código de programação: LLMs são o principal “motor” por trás da IA Generativa, como o ChatGPT, e podem gerar textos e códigos de programação baseados em entradas e prompts. Por exemplo, o chatGPT é capaz de entender padrões e pode responder de forma eficiente a requisições de usuários como “escreva um poema sobre flores ao estilo de Manuel Bandeira” ou “escreva um código em Python capaz de ordenar uma lista de filmes em ordem alfabética”.
- Chatbots e IAs para conversação: LLMs já são capazes de oferecer atendimento ao cliente através de agentes chatbots que conversam com os consumidores, interpretam o significado de suas perguntas e dúvidas, e oferecem respostas ou orientações adequadas.
Além desses cenários de uso, os LLMs se mostram uma ferramenta de IA promissora nos campos da tecnologia, saúde e ciência, marketing, no âmbito das leis e também na utilização em sistemas bancários. Para se ter uma ideia, atualmente LLMs já conseguem prever com alto grau de precisão a ocorrência de câncer de mama apenas analisando conjuntos de amostras celulares com um nível maior de exatidão do que muitos médicos experientes.

LLMs e Generative Pre-Trained Transformer (GPT) 3e345u
O Generative Pre-Trained Transformer (GPT) é um tipo específico de LLM que utiliza uma arquitetura de transformers e foi desenvolvida pela empresa OpenAI. Ele é projetado para entender, gerar e manipular linguagem natural (como o português ou o inglês) de maneira altamente eficiente e realista.
Quebrando o nome, podemos entender melhor o que é um GPT:
- Generative (Generativo, em português): indica que o modelo gera texto, ou seja, ele é capaz de produzir novas sentenças, respostas, resumos, códigos etc.
- Pre-Trained (Pré-treinado, em português): quer dizer que ele é pré-treinado em uma grande quantidade de textos da internet, como livros, artigos, sites e outros. Depois, ele pode ser ajustado para tarefas específicas.
- Transformer: conforme mencionamos anteriormente, se trata da arquitetura de rede neural que dá a base para o modelo. Ela é altamente paralelizável (pode executar diversas tarefas simultaneamente) e eficiente para lidar com sequências longas de texto.

A grande diferença do GPT para outros LLMs é sua fase de treinamento, que consiste em 3 processos diferenciados:
- Pré-treinamento: quantidades massivas de dados são extraídos da Internet, livros e até mesmo de vídeos e músicas, e depois processados na forma de tokens.
- Ajuste fino de instruções: aqui o modelo é “ensinado” como ele deve responder instruções específicas, alinhando suas respostas para que sejam mais precisas.
- Aprendizado por Reforço por humano: similar ao ajuste fino, aqui o “ensino” é feito através do humano que induz o processo de “aprendizado por reforço”, onde a IA aprende o que é “certo” e o que é “errado” através de repetições e informações fornecidas por um agente externo, nesse caso, o próprio usuário que utiliza a IA.
História: de bilhões de palavras a textos complexos 123z4d
Apesar do boom dos modelos de linguagem ocorrer somente a partir de 2017, desde 1990 os modelos de alinhamento da IBM eram pioneiros na modelagem estatística de linguagens. Em 2001, um modelo treinado com 3 milhões de palavras atingiu o “estado-da-arte” em termos de precisão na interpretação de textos e construção de frases coesas.

A partir de 2012 as Redes Neurais ganharam mais destaque no mundo da IA e em pouco tempo começaram a ser usadas para tarefas de linguagem. Em 2016, o Google adotou o Neural Machine Translation (Tradução de Máquina Neural, em português) utilizando modelos baseados nesse conceito. Já em 2018 a empresa OpenAI entrou de cabeça no desenvolvimento de agentes de IA baseados em LLMs e lançou o GPT-1 para testes, sendo que somente no ano seguinte o GPT-2 começou a chamar a atenção do público por causa de seus potenciais usos anti-éticos.
Em 2020 o GPT-3 chegou com o apenas via API, mas foi somente em 2022 que o ChatGPT (o agente de IA “movido” à base do GPT-3) capturou a atenção do público em todo mundo.
O GPT-4 foi lançado em 2023 com recursos multimodais, embora os detalhes técnicos não tenham sido divulgados. Em 2024, a OpenAI lançou o modelo o1, focado na geração de longas cadeias de raciocínio. Essas ferramentas impulsionaram a adoção generalizada de LLMs em diversos campos de pesquisa.

Desde 2024, todas as maiores e mais eficientes LLMs são baseadas na arquitetura de transformers, com alguns pesquisadores experimentando e testando com outras arquiteturas, como Recurrent Neural Networks (Redes Neurais Recorrentes, em português).
Os benefícios e limitações dos LLMs 40g4v
Com uma ampla gama de aplicações, os LLMs são excepcionalmente benéficos para a resolução de problemas, pois fornecem informações em um estilo claro e simples, de fácil compreensão para os usuários. Além disso, elas podem ser usadas para tradução de idiomas, complementação de frases, análise de sentimentos, resposta a perguntas, equações matemáticas e muito mais.
O desempenho dos LLMs está em constante aprimoramento, pois cresce à medida que mais dados e parâmetros são adicionados. Em outras palavras, quanto mais aprende, melhor fica. Além disso, os modelos de linguagem de grande porte podem exibir o que é chamado de “aprendizagem em contexto”. Uma vez que um LLM tenha sido pré-treinado, o prompt de poucas tentativas permite que o modelo aprenda com o prompt sem quaisquer parâmetros adicionais. Dessa forma, ele está aprendendo continuamente.
Ao demonstrar a aprendizagem em contexto, os LLMs aprendem rapidamente porque não exigem peso, recursos e parâmetros adicionais para o treinamento. São rápidos no sentido de que não exigem muitos exemplos para se tornarem mais “inteligentes”.

Uma característica fundamental dos LLMs é sua capacidade de responder a consultas imprevisíveis. Um programa de computador tradicional, por exemplo, recebe comandos em sua sintaxe aceita ou a partir de um determinado conjunto de entradas do usuário. Por outro lado, um LLM pode responder à linguagem humana natural e usar a análise de dados para responder a uma pergunta ou solicitação não estruturada de uma forma que faça sentido. Enquanto um programa de computador comum não reconheceria um prompt como “Quais são as cinco maiores bandas de rock da história?”, um LLM poderia responder com uma lista de cinco dessas bandas e uma defesa razoavelmente convincente do motivo pelo qual elas são as melhores.
No entanto, em termos das informações que fornecem, os LLMs só podem ser tão confiáveis quanto os dados que eles recebem. Se receberem informações falsas na fase de pré-treinamento, elas fornecerão informações falsas em resposta às consultas do usuário. Às vezes, os LLMs também podem “alucinar” ao criar respostas e até mesmo fontes literárias falsas quando não conseguem produzir uma resposta precisa.
Por exemplo, em 2022, a agência de notícias Fast Company perguntou ao ChatGPT sobre o trimestre financeiro anterior da empresa Tesla. Embora o ChatGPT tenha fornecido um artigo de notícias coerente em resposta, muitas das informações contidas nele foram inventadas. Por se tratar de um sistema baseado em IA, se sabe que ele está sempre em constante aperfeiçoamento, mas mesmo assim é incorreto confiar em 100% das respostas produzidas pelos LLMs.
Em termos de segurança, os aplicativos voltados para o usuário baseados em LLMs são tão propensos a bugs quanto qualquer outro aplicativo. Os LLMs também podem ser manipuladas por meio de entradas maliciosas para fornecer determinados tipos de respostas em detrimento de outras, inclusive respostas perigosas ou antiéticas.

Por fim, um dos problemas de segurança dos LLMs é que os usuários podem fazer de dados seguros e confidenciais para aumentar sua própria produtividade. Mas os LLMs usam as entradas que recebem para treinar ainda mais seus modelos, e não foram projetadas para serem cofres seguros, já que elas podem expor dados confidenciais em resposta a consultas de outros usuários.
As LLMs e a inteligência por trás das palavras 3v544b
Como se fosse uma criança solta em uma biblioteca gigantesca, os LLMs são sistemas inteligentes de IA que aprendem a compreender e reproduzir a linguagem humana natural com base em uma quantidade massiva de dados. Ao mesmo tempo que proporciona muitos benefícios a usuários comuns e se torna uma poderosa ferramenta auxiliar no ambiente profissional, as capacidades e perigos dos LLMs ainda precisam ser estudados com muito cuidado.
E você, o que achou da explicação desse artigo sobre os LLMs? Deixe sua opinião nos comentários.
Veja mais
Fontes: ElasticSearch, CloudFare, IBM
Revisado por Tiago Rodrigues em 16/04/2025