Rede Neural
Uma rede neural é um modelo computacional inspirado em sistemas neurais biológicos, composto por camadas interconectadas de nós que aprendem a transformar dados de entrada em saídas, ajustando os pesos das conexões durante o treinamento.
Entendendo Rede Neural
Redes neurais são a base da IA moderna. Uma rede neural básica possui uma camada de entrada que recebe os dados, uma ou mais camadas ocultas que transformam os dados por meio de conexões ponderadas e funções de ativação, e uma camada de saída que gera previsões ou representações. Durante o treinamento, a rede ajusta seus pesos para minimizar a diferença entre suas saídas e as respostas corretas, em um processo chamado retropropagação com descida do gradiente. Deep learning se refere a redes neurais com muitas camadas ocultas, capazes de aprender representações hierárquicas. As primeiras camadas detectam padrões simples; camadas mais profundas combinam esses padrões em conceitos cada vez mais abstratos. Esse aprendizado hierárquico de representações é o que torna as redes neurais profundas tão poderosas em tarefas diversas. Sistemas de IA modernos usam arquiteturas de redes neurais especializadas: redes neurais convolucionais (CNNs) para imagens, redes neurais recorrentes (RNNs) para sequências (atualmente, em grande parte substituídas por transformers), e transformers para linguagem, visão e tarefas multimodais. Cada arquitetura é projetada para as propriedades estruturais do tipo de dado. Redes neurais são aproximadoras universais de funções: com parâmetros e dados de treino suficientes, podem teoricamente aprender qualquer mapeamento de entrada para saída. O desafio prático está em coletar dados suficientes, escolher a arquitetura certa e treinar de forma eficiente sem sobreajuste.
Como GAIA usa Rede Neural
Toda capacidade de IA na GAIA, desde compreensão de linguagem até busca semântica e extração de tarefas, é impulsionada por redes neurais. O LLM que interpreta seus e-mails e planeja fluxos de trabalho é uma rede neural do tipo transformer. O modelo de embedding que converte seu conteúdo em vetores pesquisáveis é uma rede neural. Redes neurais são a base computacional que torna possível a inteligência da GAIA.
Conceitos relacionados
Transformer
Um transformer é uma arquitetura de rede neural introduzida em 2017 que utiliza mecanismos de autoatenção para processar sequências de dados em paralelo, formando a base de todos os modernos grandes modelos de linguagem.
Large Language Model (LLM)
Um Modelo de Linguagem de Grande Porte (LLM) é um modelo de deep learning treinado com enormes conjuntos de textos capaz de compreender, gerar e raciocinar sobre linguagem humana em uma ampla variedade de tarefas.
Embeddings
Embeddings são representações densas em vetor numérico de dados, como texto, imagens ou áudio, que capturam significados e relações semânticas em um espaço de alta dimensão.
Ajuste Fino
Ajuste fino é o processo de pegar um modelo de IA pré-treinado e continuar seu treinamento em um conjunto de dados menor e específico, para adaptar o comportamento do modelo para um domínio ou aplicação particular.
Modelo de Linguagem de Grande Porte (LLM)
Um Modelo de Linguagem de Grande Porte (LLM) é um modelo de inteligência artificial treinado em enormes quantidades de dados textuais, capaz de compreender, gerar e raciocinar sobre a linguagem humana com grande fluência.


