Zubnet AILearn › Wiki

AI Wiki

AI concepts explained by builders, not textbooks. No jargon walls. No academic gatekeeping. Just clear, practical definitions of the terms you'll actually encounter.

128 terms 8 categories Updated March 2026
No terms match your search.
A
ASI
Superinteligência Artificial
Fundamentos
Um sistema teórico de IA que supera as capacidades cognitivas de todos os humanos em praticamente todos os domínios — raciocínio científico, inteligência social, criatividade, planejamento estratégico e muito mais. O ASI vai além do AGI (que corresponde à inteligência humana) para algo qualitativamente diferente: uma inteligência que poderia melhorar-se de forma recursiva e resolver problemas que os humanos nem sequer conseguem formular. Nenhum ASI existe, e não há consenso científico sobre se um será construído ou não.
Por que isso importa: ASI é onde a segurança da IA se torna existencial. Se você acredita que superinteligência é possível, o alinhamento não é só sobre fazer chatbots educados — é sobre garantir que um sistema mais inteligente do que toda a humanidade ainda age em nosso interesse. É especulativo, mas os riscos são altos o suficiente para que pesquisadores sérios levem a sério. Entender ASI ajuda você a avaliar alegações sobre riscos da IA com mais maturidade.
AGI
Inteligência Artificial Geral
Fundamentos
Um sistema de IA hipotético que pode compreender, aprender e executar qualquer tarefa intelectual que um humano possa — com a capacidade de transferir conhecimento entre domínios sem precisar ser treinado especificamente para cada um. Ao contrário da IA atual, que excel em tarefas específicas (gerar texto, classificar imagens), a AGI lidaria com situações novas, raciocinaria de forma abstrata e se adaptaria a qualquer desafio. Se a AGI está à beira de acontecer, está décadas à distância ou é impossível é o debate mais acalorado na área.
Por que isso importa: A AGI é a estrela norte (ou monstro) de toda a indústria de IA. Ela movimenta bilhões em investimentos, define as prioridades de pesquisa em segurança e domina debates sobre políticas. Seja você acredita ou não que a AGI está próxima, o conceito define como empresas como Anthropic, OpenAI e DeepMind definem seus objetivos — e entender o debate ajuda você a distinguir progresso real de exagero.
Assistentes de codificação de IA
Code Copilot, IDE de IA
Ferramentas
Ferramentas de IA que ajudam desenvolvedores a escrever, revisar, depurar e implantar código. De autocomplete (GitHub Copilot, Codeium) a desenvolvimento autônomo completo (Claude Code, Cursor, Devin), assistentes de codificação representam uma das aplicações mais maduras e amplamente adotadas de LLMs. Funcionam prevendo os próximos tokens de código dado o contexto do seu codebase, documentação e instruções.
Por que isso importa: Assistentes de codificação com IA são a ponta mais afiada do impacto da IA no trabalho intelectual. Desenvolvedores que os usam reportam ganhos de produtividade de 30–50% em tarefas rotineiras. Mas eles também alucinam APIs que não existem, introduzem bugs sutis e podem tornar desenvolvedores dependentes de ferramentas que não entendem completamente.
Automação
Automação com IA, automação de fluxos de trabalho
Ferramentas
Usar IA para executar tarefas que antes exigiam intervenção humana. Vai desde automação simples (categorizar e-mails automaticamente, gerar relatórios) até workflows autônomos complexos (agentes de IA que pesquisam, escrevem, testam e implantam código). A mudança fundamental da automação tradicional (regras rígidas) para automação com IA (inteligência flexível) é que a IA consegue lidar com tarefas ambíguas e não estruturadas.
Por que isso importa: Automação é o motor econômico da adoção de IA. Toda empresa comprando IA está na verdade comprando automação — menos humanos fazendo trabalho repetitivo, processamento mais rápido, operação 24/7. A questão não é se a IA vai automatizar tarefas, mas quais tarefas, com que rapidez, e o que acontece com os humanos que as faziam.
IA em cibersegurança
Cibersegurança com IA, detecção de ameaças com IA
Segurança
A aplicação dual da IA em cibersegurança: usar IA para defender sistemas (detecção de ameaças, detecção de anomalias, resposta automatizada a incidentes) e os novos vetores de ataque que a IA cria (phishing gerado por IA, descoberta automatizada de vulnerabilidades, ataques adversariais a sistemas de ML). O campo está em uma corrida armamentista onde tanto atacantes quanto defensores são cada vez mais impulsionados por IA.
Por que isso importa: A IA torna ameaças cibernéticas existentes mais rápidas e baratas de executar — um e-mail de phishing escrito por um LLM é mais convincente e não custa nada personalizar. Mas a IA também possibilita defesas que seriam impossíveis manualmente, como analisar milhões de eventos de rede por segundo em busca de anomalias. Equipes de segurança que não usam IA vão perder para atacantes que usam.
Governança da IA
Regulamentação da IA, política de IA
Segurança
Os frameworks, políticas, leis e práticas organizacionais que orientam como a IA é desenvolvida, implantada e utilizada. Isso inclui regulação governamental (o AI Act da UE, ordens executivas), autorregulação da indústria (políticas de escalonamento responsável, model cards), governança corporativa (comitês de ética em IA, políticas de uso) e coordenação internacional em padrões de segurança de IA.
Por que isso importa: A tecnologia está se movendo mais rápido que as regras. Empresas estão lançando produtos de IA em saúde, justiça criminal e finanças com supervisão mínima. Governança é a tentativa de estabelecer limites antes que algo quebre de forma grave o suficiente para provocar uma reação que poderia atrasar todo o campo.
Privacidade na IA
Privacidade de dados em IA, privacidade ML
Segurança
O desafio de construir e usar sistemas de IA sem comprometer dados pessoais. Isso abrange todo o ciclo de vida: dados de treinamento que podem conter informações privadas, modelos que podem memorizar e regurgitar detalhes pessoais, logs de inferência que rastreiam comportamento do usuário, e a tensão fundamental entre capacidade da IA (que melhora com mais dados) e direitos de privacidade.
Por que isso importa: Toda conversa com uma IA é dados. Toda imagem que você gera revela seus prompts. Todo documento que você resume passa pelos servidores de alguém. Privacidade não é apenas uma caixa de checagem legal (LGPD, GDPR, CCPA) — é uma questão de confiança que determina se indivíduos e empresas vão adotar IA para trabalho sensível.
Segurança da IA
Segurança de LLM, engenharia de segurança de IA
Segurança
A prática de proteger sistemas de IA contra ataques adversariais, envenenamento de dados, injeção de prompt, roubo de modelo e uso indevido — além de se defender contra ameaças habilitadas por IA como deepfakes e ataques cibernéticos automatizados. Segurança de IA fica na interseção da cibersegurança tradicional com as vulnerabilidades únicas introduzidas por sistemas de machine learning.
Por que isso importa: Sistemas de IA são simultaneamente ferramentas poderosas e superfícies de ataque inéditas. Uma injeção de prompt pode fazer seu bot de suporte ao cliente vazar dados internos. Um dataset de treinamento envenenado pode inserir backdoors. Conforme a IA é implantada em infraestrutura crítica, saúde e finanças, segurança não é opcional — é existencial.
Preços da IA
Preços por token, preços de API
Infraestrutura
Como provedores de IA cobram pelo acesso a seus modelos. O modelo dominante é preço por token — você paga pelo número de tokens que envia (input) e recebe (output), com tokens de saída tipicamente custando 3–5x mais. Outros modelos incluem preço por requisição, assinaturas mensais, descontos por compromisso de uso e planos gratuitos. A corrida para baixar preços tem sido acirrada, com custos caindo 10–100x em dois anos.
Por que isso importa: Preços determinam o que você pode construir. Uma aplicação que faz 10.000 chamadas de API por dia vive ou morre pelo custo por token. Entender modelos de preço, comparar provedores e otimizar uso de tokens é uma habilidade fundamental para quem constrói produtos impulsionados por IA.
Infraestrutura de IA
Infra IA, infraestrutura ML
Infraestrutura
A stack completa de hardware, software e serviços necessários para treinar e implantar modelos de IA em escala. Inclui GPUs e chips customizados, data centers, redes, armazenamento, plataformas de orquestração (Kubernetes, Slurm), frameworks de serving de modelos (vLLM, TensorRT) e os provedores de nuvem que empacotam tudo isso. Infraestrutura de IA é onde o mundo abstrato da arquitetura de modelos encontra o mundo muito concreto das redes elétricas e sistemas de refrigeração.
Por que isso importa: Infraestrutura determina o que é possível. A razão pela qual apenas um punhado de empresas consegue treinar modelos de fronteira não é falta de ideias — é falta de infraestrutura. E a razão pela qual a IA custa o que custa para usuários finais se rastreia diretamente à disponibilidade de GPUs, capacidade de data centers e eficiência de serving de inferência.
AssemblyAI
Universal-2 STT, inteligência de áudio
Empresas
Empresa de IA de voz que constrói APIs amigáveis para desenvolvedores para transcrição, detecção de falantes e compreensão de áudio. Seu modelo Universal-2 rivaliza com o Whisper da OpenAI em precisão, adicionando funcionalidades como diarização de falantes, sentimento e detecção de tópicos nativamente.
Por que isso importa: A AssemblyAI tornou o speech-to-text genuinamente acessível para desenvolvedores, comprimindo o que costumava exigir uma equipe dedicada de ML em uma única chamada de API. Seu stack de Audio Intelligence — combinando transcrição, identificação de falantes, sentimento e sumarização com LLM — está transformando áudio bruto em dados estruturados e acionáveis em uma escala que não era prática nem dois anos atrás. Em um mundo onde voz está se tornando a interface padrão para agentes de IA, a AssemblyAI está construindo a camada de compreensão da qual tudo o mais depende.
Anthropic
Claude, IA constitucional, MCP
Empresas
Empresa de segurança em IA que constrói o Claude. Fundada pelos ex-pesquisadores da OpenAI Dario e Daniela Amodei, a Anthropic foca no desenvolvimento de sistemas de IA confiáveis, interpretáveis e controláveis.
Por que isso importa: A Anthropic provou que uma empresa de IA poderia liderar com pesquisa em segurança e ainda competir na fronteira. Sua abordagem de Constitutional AI influenciou como toda a indústria pensa sobre alignment, sua Responsible Scaling Policy estabeleceu um modelo que outros laboratórios adotaram de várias formas, e o Claude se tornou o modelo preferido para empresas que precisam de confiabilidade e tratamento cuidadoso de conteúdo sensível. Talvez o mais importante, a existência da Anthropic como uma competidora bem financiada garante que a corrida para a AGI não seja um assunto de uma única empresa — e que pelo menos um player importante tenha segurança entrelaçada em seu DNA fundador em vez de adicionada como um remendo.
Alibaba Cloud
Modelos Qwen, Tongyi Qianwen
Empresas
O braço de computação em nuvem do Alibaba Group e criador da família de modelos Qwen. Os modelos Qwen são totalmente open-weights, multilíngues e estão entre os modelos abertos mais capazes disponíveis.
Por que isso importa: A Alibaba Cloud transformou o Qwen na família de modelos open-weights mais amplamente implantada na Ásia e um competidor global genuíno ao Llama da Meta, provando que modelos com capacidade de fronteira podem vir de fora do Vale do Silício. Sua combinação de lançamentos de modelos abertos, infraestrutura massiva de nuvem e o ecossistema ModelScope dá aos desenvolvedores — especialmente aqueles em mercados afetados por controles de exportação dos EUA — uma alternativa crível e de alta qualidade às plataformas de IA ocidentais.
Agente
Agente de IA
Ferramentas
Um sistema de IA que pode planejar e executar tarefas de múltiplas etapas de forma autônoma, usando ferramentas (busca na web, execução de código, chamadas de API) para atingir um objetivo. Diferente de um chatbot simples que responde uma pergunta por vez, um agente decide o que fazer em seguida com base no que aprendeu até agora.
Por que isso importa: Agentes são a ponte entre "IA que conversa" e "IA que faz". Quando sua IA consegue navegar documentação, escrever código e testá-lo sem você segurando a mão dela a cada passo — isso é um agente.
Segurança
O desafio de fazer sistemas de IA se comportarem de maneiras que correspondam aos valores e intenções humanas. Um modelo alinhado faz o que você quis dizer, não apenas o que você disse — e evita ações prejudiciais mesmo quando não é explicitamente instruído a não fazê-las.
Por que isso importa: Um modelo tecnicamente brilhante mas mal alinhado é como um funcionário gênio que segue instruções literalmente demais. A pesquisa em alignment é o motivo pelo qual os modelos recusam solicitações perigosas e tentam ser genuinamente úteis.
API
Interface de programação de aplicações
Infraestrutura
Uma forma estruturada de um software se comunicar com outro software. Em IA, isso geralmente significa enviar uma requisição (seu prompt) ao servidor de um provedor e receber uma resposta (a saída do modelo) de volta. APIs REST sobre HTTPS são o padrão.
Por que isso importa: Todo provedor de IA — Anthropic, Google, Mistral — expõe seus modelos através de APIs. Se você está construindo qualquer coisa com IA além de uma janela de chat, você está usando uma API.
Atenção
Mecanismo de atenção, autoatenção
Modelos
O mecanismo central dos Transformers que permite ao modelo pesar quais partes da entrada são mais relevantes entre si. Em vez de ler texto da esquerda para a direita como modelos mais antigos, attention permite que cada palavra "olhe para" todas as outras palavras simultaneamente para entender o contexto.
Por que isso importa: Attention é o motivo pelo qual LLMs modernos entendem que "banco" significa coisas diferentes em "banco do rio" vs. "banco de dados". É também por que janelas de contexto maiores custam mais — attention escala quadraticamente com o comprimento da sequência.
B
Bria
Dados de treinamento licenciados, geração de imagens corporativa
Empresas
Empresa israelense de IA que construiu seus modelos de geração de imagem exclusivamente com dados de treinamento licenciados e atribuídos. Posiciona-se como a escolha segura para empresas que precisam de visuais gerados por IA sem risco de direitos autorais.
Por que isso importa: A Bria é o caso de teste mais proeminente para saber se a geração de imagens por IA pode ser construída com dados de treinamento totalmente licenciados e ainda competir comercialmente. Em uma indústria enfrentando uma avalanche de litígios de direitos autorais, sua abordagem oferece às empresas um caminho para adotar IA generativa sem exposição legal — uma proposta de valor que se torna mais atraente a cada nova ação judicial movida contra concorrentes. Se a Bria tiver sucesso, valida toda uma filosofia de desenvolvimento responsável de IA; se tiver dificuldades, sugere que o mercado, em última análise, não se importa o suficiente com proveniência de dados para pagar um premium por isso.
ByteDance
Doubao, TikTok, recomendações com IA
Empresas
Empresa-mãe do TikTok e uma das empresas de tecnologia mais valiosas do mundo. Seu laboratório de IA constrói a família de modelos Doubao e alimenta algoritmos de recomendação que servem mais de um bilhão de usuários diariamente.
Por que isso importa: A ByteDance é a empresa de tecnologia privada mais valiosa do mundo e implanta IA em uma escala que poucas organizações podem igualar, servindo mais de um bilhão de usuários diariamente através do TikTok, Douyin e uma suíte crescente de produtos alimentados por IA. Sua família de modelos Doubao e a plataforma de nuvem Volcano Engine fazem dela uma entrante formidável na corrida de modelos fundacionais, apoiada por algo que a maioria das startups de IA só pode sonhar: um negócio central massivo e lucrativo e distribuição integrada para mais de um bilhão de usuários.
Black Forest Labs
Modelos FLUX.1
Empresas
Fundada pelos criadores originais do Stable Diffusion após saírem da Stability AI. Seus modelos FLUX rapidamente se tornaram o novo padrão para geração de imagens open-source, superando a qualidade dos modelos que deixaram para trás.
Por que isso importa: A Black Forest Labs representa o melhor cenário possível para IA open-source: os arquitetos originais do Stable Diffusion recomeçando com melhor tecnologia, estratégia de negócios mais inteligente e a confiança da comunidade criativa. O FLUX.1 não apenas iterou sobre o Stable Diffusion — ele o ultrapassou, e o modelo de licenciamento em camadas que eles pioneiraram está se tornando o blueprint de como empresas de IA equilibram abertura com receita.
Treinamento
Um teste padronizado usado para avaliar e comparar modelos de IA. Benchmarks medem capacidades específicas — raciocínio (ARC), matemática (GSM8K), programação (HumanEval), conhecimento geral (MMLU) — e produzem pontuações que podem ser comparadas entre modelos.
Por que isso importa: Benchmarks são como a indústria mantém o placar, mas são imperfeitos. Modelos podem ser treinados para gabaritar benchmarks sem serem genuinamente melhores. O desempenho no mundo real frequentemente conta uma história diferente. Trate-os como sinais, não como verdade.
Segurança
Padrões sistemáticos nas saídas de IA que refletem ou amplificam preconceitos sociais presentes nos dados de treinamento. O viés pode aparecer em geração de texto, criação de imagens, ferramentas de contratação e em qualquer lugar onde modelos tomam decisões que afetam pessoas de forma desigual.
Por que isso importa: Se os dados de treinamento dizem que enfermeiras são mulheres e engenheiros são homens, o modelo vai perpetuar isso. O viés nem sempre é óbvio — ele se esconde em associações de palavras, suposições padrão e em quem é representado.
C
Visão computacional
Visão por computador, visão de máquina
Fundamentos
O campo da IA focado em permitir que máquinas interpretem e compreendam informações visuais do mundo — imagens, vídeo, cenas 3D e documentos. Visão computacional alimenta tudo, desde reconhecimento facial e direção autônoma até imagem médica e geração de imagens com IA. Tarefas centrais incluem detecção de objetos, classificação de imagens, segmentação, OCR e estimação de pose.
Por que isso importa: Visão computacional foi a primeira área onde deep learning claramente superou o desempenho humano (ImageNet 2012), e continua sendo uma das aplicações de IA com maior impacto comercial. Toda imagem ou vídeo de IA que você gera, todo documento que passa por OCR, toda câmera de segurança com detecção inteligente — tudo isso é visão computacional.
Moderação de conteúdo
Moderação com IA, Trust & Safety
Segurança
Usar IA para detectar e filtrar conteúdo nocivo, ilegal ou que viola políticas em escala. Inclui classificação de texto (discurso de ódio, spam, ameaças), análise de imagem (detecção NSFW, CSAM) e moderação de vídeo. Sistemas modernos combinam classificadores de IA com revisão humana, mas o volume de conteúdo gerado pela própria IA está criando uma crise de moderação — agora você precisa de IA para moderar IA.
Por que isso importa: Toda plataforma com conteúdo gerado por usuários precisa de moderação, e a IA é a única forma de lidar com a escala. Mas moderação é mais difícil do que parece — contexto importa, normas culturais diferem, e falsos positivos silenciam fala legítima enquanto falsos negativos permitem que danos passem.
Cartesia
Sonic, modelos de voz baseados em SSM
Empresas
Startup de IA de voz construída sobre arquitetura de state space model (SSM) em vez de transformers. Seus modelos Sonic alcançam geração de voz com latência ultrabaixa, fazendo IA conversacional em tempo real parecer genuinamente natural pela primeira vez.
Por que isso importa: A Cartesia importa porque provou que state space models não são apenas uma curiosidade de pesquisa, mas uma arquitetura comercialmente viável para IA de voz em tempo real. Sua latência sub-100-milissegundos torna IA conversacional genuinamente natural possível pela primeira vez, fechando a lacuna entre "conversar com um robô" e "conversar com uma pessoa". Conforme a indústria se desloca para agentes de IA voice-first, a vantagem arquitetural da Cartesia em velocidade de streaming pode torná-la a camada de infraestrutura sobre a qual todo o resto é construído.
Cohere
Command, Embed, Rerank
Empresas
Empresa de IA focada em empresas, cofundada por Aidan Gomez, um dos coautores do artigo original "Attention Is All You Need" sobre Transformers. Especializa-se em modelos otimizados para casos de uso empresariais, RAG e suporte multilíngue.
Por que isso importa: A Cohere representa o caso de teste mais claro de se uma empresa de IA focada e enterprise-first pode prosperar independentemente em uma era dominada por hyperscalers de trilhões de dólares e laboratórios de fronteira voltados ao consumidor. Sua linhagem do artigo do Transformer lhe dá credibilidade técnica genuína, sua flexibilidade de implantação resolve um problema real para indústrias regulamentadas, e seus modelos de embedding e rerank se tornaram ferramentas essenciais para sistemas de RAG em produção ao redor do mundo. Se o futuro da IA é menos sobre chatbots e mais sobre infraestrutura entrelaçada em cada workflow empresarial, a Cohere está posicionada para importar enormemente.
Uma técnica de prompting onde você pede ao modelo para mostrar seu raciocínio passo a passo antes de dar uma resposta final. Em vez de pular para uma conclusão, o modelo "pensa em voz alta", o que melhora dramaticamente a precisão em tarefas complexas.
Por que isso importa: Pedir "explique seu raciocínio" não é apenas para transparência — realmente torna os modelos mais inteligentes. CoT reduziu erros de matemática em até 50% nos primeiros estudos. A maioria dos modelos modernos agora faz isso internamente.
Janela de contexto
Comprimento de contexto
Usar AI
A quantidade máxima de texto (medida em tokens) que um modelo pode processar em uma única conversa. Isso inclui tanto sua entrada quanto a saída do modelo. Se um modelo tem uma janela de contexto de 200K, isso é aproximadamente 150.000 palavras — cerca de dois romances.
Por que isso importa: O tamanho da janela de contexto determina o que você pode fazer. Resumir uma base de código inteira? Precisa de contexto grande. Pergunta-resposta rápida? Pequeno serve. Mas maior nem sempre é melhor — modelos podem perder o foco em contextos muito longos.
Corpus
Conjunto de dados, dados de treinamento
Treinamento
O corpo de texto (ou outros dados) usado para treinar um modelo. Um corpus pode variar de coleções curadas de livros e artigos a scrapes massivos de toda a internet. A qualidade e composição do corpus moldam fundamentalmente o que o modelo sabe e como ele se comporta.
Por que isso importa: Lixo entra, lixo sai. Um modelo treinado no Reddit fala diferente de um treinado em artigos científicos. É por isso que curamos nosso próprio corpus para a Sarah — web crawls genéricos produziram resultados confusos e incoerentes.
D
Fundamentos
Um subconjunto do aprendizado de máquina que utiliza redes neurais com muitas camadas (daí o termo "deep") para aprender representações hierárquicas dos dados. Cada camada transforma sua entrada em algo ligeiramente mais abstrato — de pixels para bordas, formas, objetos e conceitos. O aprendizado profundo é o que tornou possível a revolução da inteligência artificial moderna: é a abordagem por trás dos LLMs, geradores de imagens, reconhecimento de fala e praticamente todos os avanços da IA desde 2012.
Por que isso importa: Deep learning é o impulso da era atual da IA. Antes de 2012, a IA era uma colagem de algoritmos especializados. Deep learning unificou tudo sob um paradigma: empilhe camadas suficientes, forneça dados suficientes, aplique recursos computacionais suficientes e o modelo descobre o resto. Compreender deep learning é compreender por que a IA de repente funciona.
Ferramentas para desenvolvedores
SDKs de IA, frameworks de IA
Ferramentas
O ecossistema de bibliotecas, frameworks e plataformas que facilitam a construção de aplicações impulsionadas por IA. Inclui frameworks de orquestração (LangChain, LlamaIndex), servidores de inferência (vLLM, llama.cpp), ferramentas de fine-tuning (Axolotl, Unsloth), frameworks de avaliação (LMSYS, Braintrust) e plataformas full-stack (Vercel AI SDK, Hugging Face). O cenário de ferramental muda mensalmente.
Por que isso importa: APIs de modelos puras são necessárias mas não suficientes. Ferramentas de desenvolvimento fazem a ponte entre "tenho uma API key" e "tenho uma aplicação em produção". As ferramentas certas podem cortar o tempo de desenvolvimento de meses para dias, enquanto as erradas adicionam complexidade sem valor.
Deepfakes
Mídias sintéticas, falsificações geradas por IA
Segurança
Imagens, vídeos ou áudio gerados por IA projetados para retratar convincentemente pessoas reais dizendo ou fazendo coisas que nunca fizeram. Originalmente construídos sobre tecnologia de GANs, deepfakes modernos usam modelos de difusão e clonagem de voz para produzir saídas cada vez mais difíceis de distinguir da realidade. Ferramentas de detecção existem mas consistentemente ficam atrás das capacidades de geração.
Por que isso importa: Deepfakes são o lado sombrio do poder criativo da IA generativa. Foram usados para fraude, imagem íntima não consensual, manipulação política e roubo de identidade. A tecnologia agora é acessível o suficiente para que qualquer pessoa com um laptop crie falsificações convincentes, tornando detecção, marca d'água e frameworks legais prioridades urgentes.
Centros de dados
Centros de dados de IA, clusters de GPU
Infraestrutura
Instalações físicas que abrigam os servidores, GPUs, equipamentos de rede e sistemas de refrigeração necessários para treinar e rodar modelos de IA. Data centers de IA modernos são construídos especificamente para computação paralela massiva, consumindo megawatts de energia e exigindo refrigeração especializada. Uma única rodada de treinamento de modelo de fronteira pode ocupar milhares de GPUs em uma instalação inteira por meses.
Por que isso importa: Data centers são as fábricas da era da IA. Toda consulta ao Claude, toda imagem do Midjourney, todo vídeo do Runway roda em hardware dentro de um desses prédios. A escassez global de capacidade de data centers prontos para IA é uma das maiores restrições ao crescimento da IA — e uma das maiores oportunidades de investimento.
DeepL
Tradução automática neural, DeepL Pro
Empresas
Empresa alemã de IA amplamente considerada como o melhor serviço de tradução automática do mundo. Construída por uma equipe de linguistas computacionais que consistentemente superam o Google Tradutor e outras ofertas de big-tech, especialmente para idiomas europeus.
Por que isso importa: A DeepL é prova viva de que uma empresa de IA focada pode consistentemente superar concorrentes de trilhões de dólares em uma capacidade central. Em um campo onde maior é geralmente melhor, a vantagem de qualidade de tradução da DeepL sobre Google e Microsoft permanece mensurável e significativa, especialmente para idiomas europeus e casos de uso profissionais. Seu sucesso desafia a suposição de que modelos de IA de propósito geral inevitavelmente comoditizarão tarefas especializadas — e para as centenas de milhares de empresas que dependem de comunicação precisa entre idiomas, essa especialização vale o investimento.
Decart AI
Simulação de mundos em tempo real, geração de jogos
Empresas
Empresa israelense de IA empurrando os limites da geração de IA em tempo real. Sua tecnologia pode gerar ambientes interativos semelhantes a jogos em tempo real, borrando a linha entre renderização tradicional e geração por IA.
Por que isso importa: A Decart AI demonstrou algo que a maioria das pessoas assumia estar a anos de distância: uma rede neural gerando um mundo 3D jogável e interativo em tempo real, sem nenhum motor de jogo tradicional envolvido. Sua demo Oasis foi uma prova de conceito para simulação de mundo nativa de IA, uma tecnologia com implicações muito além dos jogos — de direção autônoma a robótica e computação espacial. Se world models em tempo real se tornarem práticos com qualidade de produção, o trabalho inicial da Decart em otimização de inferência e geração interativa terá sido fundamental.
DeepSeek
DeepSeek-V3, DeepSeek-R1
Empresas
Laboratório chinês de IA que abalou a indústria no início de 2025 com o DeepSeek-R1, um modelo de raciocínio rivalizando com labs de fronteira por uma fração do custo de treinamento. Apoiado pelo fundo de hedge quantitativo High-Flyer.
Por que isso importa: A DeepSeek destruiu a suposição de que IA de fronteira exigia orçamentos de fronteira. Sua abordagem efficiency-first — alcançando desempenho de classe GPT-4 e classe o1 por uma fração do custo de treinamento — forçou toda a indústria a repensar a narrativa de que escala-é-tudo-que-você-precisa e refocar em inovação arquitetural. O lançamento open-weights do R1 sob licença MIT democratizou o acesso a modelos de raciocínio de uma forma que nenhum laboratório ocidental havia feito. E geopoliticamente, a DeepSeek provou que controles de exportação sozinhos não podem conter capacidade de IA, uma constatação com implicações profundas para política tecnológica, investimento e o equilíbrio global de poder em IA.
Deepgram
Nova reconhecimento de voz, Aura síntese de voz
Empresas
Empresa de IA de voz construindo APIs rápidas e precisas de reconhecimento de fala e text-to-speech. Seus modelos Nova competem com e frequentemente superam o Whisper da OpenAI em precisão enquanto rodam significativamente mais rápido para aplicações em tempo real.
Por que isso importa: A Deepgram provou que uma startup poderia construir reconhecimento de fala do zero usando deep learning de ponta a ponta e competir diretamente com Google, Amazon e Microsoft em precisão enquanto os superava em velocidade. Sua abordagem de API developer-first trouxe padrões modernos de infraestrutura para IA de voz, tornando tão fácil adicionar transcrição a um app quanto adicionar pagamentos com Stripe. Conforme agentes de IA conversacionais se tornam mainstream, a Deepgram está se posicionando como a camada crítica de infraestrutura de fala por baixo — o encanamento que faz IA voice-first realmente funcionar em produção.
Um tipo de modelo generativo que cria imagens (ou vídeo, áudio) começando com ruído puro e gradualmente removendo-o até que uma saída coerente apareça. O modelo aprende a reverter o processo de adicionar ruído a dados reais. Stable Diffusion, DALL-E 3 e Midjourney usam variantes dessa abordagem.
Por que isso importa: Modelos de difusão destronaram GANs como a técnica dominante de geração de imagens por volta de 2022. Eles produzem saídas mais diversas e controláveis e são a espinha dorsal de quase toda ferramenta de IA de imagem e vídeo hoje.
E
Emergência
Habilidades emergentes, comportamento emergente
Fundamentos
Capacidades que aparecem em modelos de IA em escala, mas que não foram explicitamente treinadas para — habilidades que parecem "emergir" de repente uma vez que um modelo atinge um certo tamanho ou limiar de treinamento. Um modelo treinado exclusivamente para prever a próxima palavra, de alguma forma, aprende a fazer aritmética, traduzir entre idiomas em que não foi ensinado ou escrever código funcional. A emergência é um dos fenômenos mais debatidos na IA: é mágica real de transição de fase ou um artefato de medição?
Por que isso importa: Emergência está no centro da maior questão em IA: conseguimos prever o que modelos maiores serão capazes de fazer? Se as capacidades realmente emergirem de forma imprevisível em escala, então cada modelo maior é uma caixa de surpresas. Se a emergência for um artefato de como medimos, então a escalabilidade é mais previsível do que parece. A resposta molda tudo, desde o planejamento de segurança até decisões de investimento.
Avaliação
Evals, avaliação de modelos
Treinamento
Os métodos usados para medir quão bem um modelo de IA performa. Vai muito além de benchmarks — inclui avaliação humana (ter pessoas avaliando saídas), testes A/B (comparando modelos em tráfego real), red teaming (testes adversariais), testes específicos de domínio (precisão médica, corretude de código) e leaderboards comunitários (Chatbot Arena, LMSYS). Boa avaliação é mais difícil que construir o modelo.
Por que isso importa: Se você não pode medir, não pode melhorar. Mas avaliação de IA é unicamente difícil porque as tarefas são abertas e qualidade é subjetiva. Benchmarks são gamificados, avaliação humana é cara, e o modelo que pontua mais alto no papel frequentemente não é o melhor na prática. Construir boas avaliações é um superpoder.
ElevenLabs
Síntese de voz, clonagem de voz, dublagem
Empresas
Empresa de IA de voz que tornou a síntese de fala ultrarrealista acessível a todos. Sua tecnologia alimenta clonagem de voz, dublagem em tempo real e text-to-speech em 32 idiomas, borrando a linha entre vozes humanas e de IA.
Por que isso importa: A ElevenLabs provou que fala gerada por IA podia cruzar o vale da estranheza e soar genuinamente humana, colapsando o custo e o tempo da produção profissional de voz em ordens de magnitude. Suas ferramentas de clonagem de voz e dublagem multilíngue tornaram possível para um criador solo produzir conteúdo em mais de 30 idiomas sem contratar um único ator de voz, remodelando fundamentalmente a economia da localização de áudio e vídeo. Também forçaram toda a indústria a confrontar a ética da tecnologia de voz sintética de frente, impulsionando a adoção de marca d'água, padrões de proveniência de conteúdo e protocolos de verificação que agora estão se tornando norma.
Embedding
Incorporação vetorial
Treinamento
Uma forma de representar texto (ou imagens, ou áudio) como uma lista de números (um vetor) que captura seu significado. Conceitos similares acabam próximos nesse espaço numérico — "gato" e "gatinho" ficam perto, enquanto "gato" e "economia" ficam distantes.
Por que isso importa: Embeddings são a fundação da busca semântica e do RAG. É assim que a IA entende que uma busca por "corrigir bug de login" deveria corresponder a um documento sobre "resolução de erro de autenticação" mesmo que nenhuma palavra se sobreponha.
Infraestrutura
Uma URL específica onde uma API de IA aceita requisições. Por exemplo, o endpoint de mensagens da Anthropic é onde você envia prompts ao Claude. Diferentes endpoints servem diferentes funções: geração de texto, embeddings, criação de imagens, listagem de modelos.
Por que isso importa: Ao integrar provedores de IA, endpoints são onde a teoria encontra a prática. Cada provedor estrutura os seus de forma diferente, e é por isso que plataformas como a Zubnet existem — para normalizar a bagunça.
F
Treinamento
Pegar um modelo pré-treinado e treiná-lo mais com um dataset menor e específico para especializar seu comportamento. Como pegar um clínico geral e colocá-lo numa residência em cirurgia — mesmo conhecimento de base, nova especialidade.
Por que isso importa: Fine-tuning é como modelos genéricos se tornam úteis para tarefas específicas. Um modelo com fine-tuning pode aprender o tom da sua empresa, a terminologia do seu domínio ou um formato de saída específico sem começar do zero.
Fundamentos
Um modelo grande treinado com dados amplos que serve como base para muitas tarefas diferentes. Claude, GPT, Gemini e Llama são todos foundation models. São "fundacionais" porque podem ser adaptados para quase qualquer coisa — escrita, código, análise, compreensão de imagens — sem serem treinados especificamente para cada tarefa.
Por que isso importa: Foundation models mudaram a economia da IA. Em vez de treinar um modelo separado para cada tarefa, você treina um modelo massivo uma vez e depois faz fine-tuning ou prompting para necessidades específicas.
G
Fundamentos
Sistemas de IA que criam novos conteúdos — texto, imagens, áudio, vídeo, código, modelos 3D — em vez de apenas analisar ou classificar dados existentes. A IA gerativa é o termo abrangente para tudo, do ChatGPT escrevendo ensaios ao Stable Diffusion criando imagens ao Suno compor música. A parte "gerativa" distingue esses modelos da IA anterior que só podia categorizar, prever ou recomendar.
Por que isso importa: A IA gerativa é o termo que trouxe a IA para a cultura mainstream. É o que as pessoas querem dizer quando falam em "IA" entre 2024-2026 — a capacidade de criar, e não apenas calcular. Entendê-la como uma categoria ajuda você a navegar no cenário: LLMs geram texto, modelos de difusão geram imagens, e os limites entre modalidades estão se tornando cada vez mais difusos.
Google DeepMind
Gemini, AlphaGo, AlphaFold
Empresas
A divisão unificada de pesquisa em IA do Google, formada pela fusão do DeepMind e do Google Brain em 2023. Por trás do Gemini, AlphaGo, AlphaFold e de grande parte da pesquisa fundamental que sustenta a IA moderna.
Por que isso importa: O Google DeepMind contribuiu mais pesquisa fundamental para a IA moderna do que qualquer outra organização — a arquitetura transformer, trabalho pioneiro em aprendizado por reforço, predição de estruturas de proteínas e leis de escala, tudo remonta a equipes do DeepMind ou do Google Brain. Seus modelos Gemini são os únicos LLMs de fronteira com distribuição verdadeiramente global integrada, alcançando bilhões de usuários através do Search, Android e Google Workspace. E o AlphaFold sozinho — que resolveu um problema de cinquenta anos da biologia e rendeu um Prêmio Nobel — seria suficiente para garantir seu lugar na história da ciência, não apenas na história da IA.
GAN
Rede adversarial generativa
Modelos
Uma arquitetura de modelo onde duas redes neurais competem: um gerador cria dados falsos e um discriminador tenta distinguir o real do falso. Através desse jogo adversarial, o gerador melhora na criação de saídas realistas. Dominou a geração de imagens de 2014 a ~2022.
Por que isso importa: GANs foram pioneiras na geração realista de imagens por IA e ainda são usadas em algumas aplicações em tempo real. Mas modelos de difusão as substituíram em grande parte para trabalhos onde qualidade é prioridade, porque GANs são mais difíceis de treinar e menos diversas nas suas saídas.
GPU
Unidade de processamento gráfico
Infraestrutura
Originalmente projetadas para renderizar gráficos, as GPUs se mostraram perfeitas para IA porque conseguem fazer milhares de operações matemáticas simultaneamente. Treinar e rodar modelos de IA é essencialmente multiplicação massiva de matrizes — exatamente o que GPUs fazem de melhor. A NVIDIA domina esse mercado.
Por que isso importa: GPUs são o gargalo físico de toda a indústria de IA. Por que modelos custam o que custam, por que alguns provedores são mais rápidos que outros, por que existe uma escassez global de chips — tudo volta para a oferta de GPUs e VRAM.
Usar AI
Conectar as respostas de um modelo a fontes factuais e verificáveis, em vez de deixá-lo se apoiar apenas nos seus dados de treinamento. Técnicas de grounding incluem RAG, integração com busca na web e exigências de citação. Uma resposta com grounding diz "de acordo com [fonte]" em vez de simplesmente afirmar fatos.
Por que isso importa: Grounding é a principal defesa contra alucinação. Um modelo sem grounding inventa fatos com confiança. Um com grounding aponta para fontes reais que você pode verificar.
Segurança
Mecanismos de segurança que impedem modelos de IA de gerar conteúdo prejudicial, inapropriado ou fora do tema. Guardrails podem ser integradas ao modelo durante o treinamento (RLHF), aplicadas via system prompts ou impostas por filtros externos que checam as saídas antes de chegarem aos usuários.
Por que isso importa: Sem guardrails, modelos ajudam alegremente com solicitações perigosas. O desafio é a calibração — restritivo demais e o modelo se torna inútil ("Não posso ajudar com isso"), permissivo demais e ele se torna inseguro.
H
Hiperparâmetros
Hiperparâmetros de treinamento
Treinamento
Configurações que você escolhe antes do início do treinamento que controlam como o modelo aprende — ao contrário dos parâmetros, que o modelo aprende por si mesmo. Hiperparâmetros incluem taxa de aprendizado (quão grande cada passo de atualização é), tamanho do lote (quantos exemplos processar de uma vez), número de épocas (quantas vezes passar pelos dados), escolha do otimizador (Adam, SGD, AdamW), decaimento de peso, taxa de dropout e decisões de arquitetura, como número de camadas e dimensões ocultas. Ajustar os hiperparâmetros corretamente é frequentemente a diferença entre um modelo que converge de forma bela e outro que diverge para o absurdo.
Por que isso importa: A sintonia de hiperparâmetros é onde a engenharia de ML se torna parte ciência, parte arte. Você pode ter um conjunto de dados perfeito e uma arquitetura adequada, mas uma taxa de aprendizado muito alta pode fazer o treinamento explodir e uma muito baixa nunca convergirá. Entender hiperparâmetros é essencial para qualquer pessoa que treine ou faça fine-tuning de modelos — e saber quais são os mais importantes economiza uma quantidade enorme de recursos computacionais.
HeyGen
Vídeos de avatares IA, dublagem com sincronia labial
Empresas
Plataforma de vídeo com IA especializada em avatares realistas com talking-head e dublagem automática com sincronização labial. Usada por empresas para marketing, treinamento e localização — transformando um vídeo em dezenas de idiomas com movimentos labiais correspondentes.
Por que isso importa: A HeyGen transformou avatares de vídeo com IA de uma curiosidade de pesquisa em uma ferramenta empresarial genuína, provando que existe receita real em tornar a criação de conteúdo em vídeo tão fácil quanto escrever um documento. Sua tecnologia de dublagem com sincronização labial tem importância particular para negócios globais — ela reduz drasticamente o custo e o tempo de localização de vídeo de semanas e milhares de dólares para minutos e centavos. Como uma das poucas empresas de vídeo com IA que possui receita recorrente substancial, a HeyGen também serve como estudo de caso de como construir um negócio real com IA generativa, e não apenas uma demonstração.
HiDream
Modelos de geração de imagens HiDream
Empresas
Empresa emergente de geração de imagens que constrói modelos de difusão de alta qualidade. Seus lançamentos com pesos abertos ganharam tração na comunidade de IA criativa pela forte aderência a prompts e qualidade visual.
Por que isso importa: A HiDream demonstrou que uma equipe pequena e focada pode produzir modelos de imagem com pesos abertos que competem com resultados de organizações que gastam ordens de magnitude a mais em infraestrutura de treinamento. A força de seus modelos em renderização de texto e precisão composicional abordou problemas reais que impediam a adoção comercial de imagens geradas por IA. No espaço de modelos de imagem abertos em rápida comoditização, o sucesso da HiDream reforça o padrão de que o próximo salto em qualidade pode vir de qualquer lugar — não apenas dos maiores laboratórios com mais GPUs.
Hume
Interface de voz empática, detecção de emoções
Empresas
Empresa de IA que constrói modelos que entendem e expressam emoções humanas. Sua Empathic Voice Interface detecta tom, sentimento e contexto emocional em tempo real, permitindo conversas com IA que respondem não apenas ao que você diz, mas a como você diz.
Por que isso importa: A Hume importa porque está abordando o ponto cego mais gritante da IA moderna: a compreensão emocional. Todo chatbot, assistente de voz e agente de IA hoje é essencialmente surdo para nuances de tom, respondendo ao conteúdo literal das palavras enquanto ignora o contexto emocional do qual os humanos dependem instintivamente. A Empathic Voice Interface da Hume é a primeira tentativa séria de fechar essa lacuna em escala de produção, e sua insistência em diretrizes éticas para IA emocional estabelece um padrão que a indústria eventualmente será forçada a adotar.
Usar AI
Quando um modelo de IA gera informações que soam confiantes e plausíveis, mas são factualmente erradas ou inteiramente fabricadas. O modelo não está "mentindo" — ele está fazendo correspondência de padrões para produzir texto fluente sem um conceito de verdade. Citações falsas, estatísticas inventadas e métodos de API inexistentes são exemplos comuns.
Por que isso importa: Hallucination é o maior problema de confiança em IA atualmente. É a razão pela qual você deve sempre verificar fatos críticos nas saídas de IA, e por que técnicas como RAG e grounding existem.
I
Ideogram
Renderização de texto em imagens, Ideogram 2.0
Empresas
Empresa de geração de imagens com IA fundada por ex-pesquisadores do Google Brain. Ficaram conhecidos por resolver um dos problemas mais difíceis da geração de imagens: renderizar texto legível e preciso dentro das imagens.
Por que isso importa: A Ideogram provou que resolver uma única fraqueza crítica — texto legível em imagens geradas por IA — poderia criar uma posição de mercado distinta no espaço lotado de geração de imagens. Sua evolução de especialistas em renderização de texto para uma plataforma de design completa mostra como a diferenciação técnica, quando direcionada a problemas reais de fluxo de trabalho, pode competir com rivais mais bem financiados.
Infraestrutura
O processo de executar um modelo treinado para gerar saídas. Treinamento é aprender; inference é usar o que foi aprendido. Toda vez que você envia um prompt ao Claude ou gera uma imagem com Stable Diffusion, isso é inference. É o que custa horas de GPU aos provedores e o que você paga por token.
Por que isso importa: Custo e velocidade de inference determinam a economia dos produtos de IA. Inference mais rápida = menor latência = melhor experiência do usuário. Inference mais barata = preços menores = adoção mais ampla. Toda a indústria de quantização e otimização existe para tornar a inference mais eficiente.
J
Jina AI
Embeddings, API Reader, rerankers
Empresas
Empresa de IA sediada em Berlim, especializada em busca e embeddings. Seus modelos jina-embeddings e a Reader API (que converte qualquer URL em texto pronto para LLM) se tornaram infraestrutura essencial para pipelines de RAG no mundo inteiro.
Por que isso importa: A Jina AI construiu a infraestrutura de embedding e retrieval da qual milhares de sistemas de RAG dependem, provando que ferramentas focadas em busca podem ser mais valiosas do que tentar fazer tudo. Seus modelos de embedding de contexto longo e a Reader API resolvem dois dos problemas práticos mais difíceis na busca alimentada por IA — representar documentos longos fielmente e extrair texto limpo de páginas web bagunçadas — e fizeram isso mantendo os modelos centrais open source. Em um ecossistema dominado por laboratórios generalistas, a Jina demonstra que existe um negócio real em fazer uma coisa excepcionalmente bem e torná-la extremamente simples para desenvolvedores usarem.
K
Kling AI
Geração de vídeo Kling, vídeo de longa duração
Empresas
Plataforma de vídeo por IA da Kuaishou (a segunda maior plataforma de vídeos curtos da China). Ganhou atenção internacional rápida por produzir alguns dos vídeos gerados por IA com maior coerência física e consistência temporal.
Por que isso importa: O Kling AI demonstrou que laboratórios chineses de IA podiam igualar os concorrentes ocidentais na vanguarda absoluta da geração de vídeo, produzindo resultados com coerência física e consistência temporal que estabeleceram um novo padrão no campo. Apoiado pela plataforma de bilhões de vídeos por dia da Kuaishou e oferecido a preços agressivos globalmente, o Kling se tornou um dos principais motores de competição no espaço de vídeo por IA, empurrando a qualidade para cima e os preços para baixo em todo o mercado.
L
Leonardo.ai
Geração de imagens criativas, criação de assets para jogos
Empresas
Plataforma australiana de imagens por IA que conquistou um nicho entre o Midjourney e o Stable Diffusion. Popular entre desenvolvedores de jogos e artistas digitais por seus modelos fine-tuned, canvas em tempo real e foco em assets criativos prontos para produção.
Por que isso importa: A Leonardo.ai mostrou que a geração de imagens por IA podia ser empacotada como uma plataforma criativa profissional, não apenas uma caixa de prompts como curiosidade, e que fazer isso podia atrair dezenas de milhões de usuários. Seu foco em desenvolvimento de jogos e workflows de arte digital abriu casos de uso que ferramentas mais abrangentes como Midjourney e DALL-E não foram projetadas especificamente para atender. A aquisição pela Canva validou toda a categoria de geração de imagens por IA como ativo estratégico para grandes plataformas de design, estabelecendo o modelo de como ferramentas de IA independentes são absorvidas por ecossistemas criativos maiores.
Liquid AI
Liquid Foundation Models, redes neurais líquidas
Empresas
Spinout do MIT explorando arquiteturas de redes neurais fundamentalmente diferentes, inspiradas em circuitos neurais biológicos. Seus Liquid Foundation Models usam dinâmica de tempo contínuo em vez de transformers com pesos fixos, prometendo melhor eficiência e adaptabilidade.
Por que isso importa: A Liquid AI representa o desafio financiado mais sério à suposição de que transformers são a única arquitetura que importa. Ao construir foundation models de nível de produção sobre dinâmicas de tempo contínuo inspiradas biologicamente, estão testando se a aposta total da indústria de IA em mecanismos de atenção foi prematura. Mesmo que os LFMs não destronem os transformers por completo, suas vantagens de eficiência para implantação na borda e processamento de sequências longas podem conquistar nichos críticos em robótica, IA móvel e sistemas embarcados — mercados onde rodar um transformer de 70B simplesmente não é uma opção.
Luma AI
Dream Machine, Ray2
Empresas
Empresa de IA focada em geração de vídeo e 3D. Seu Dream Machine foi um dos primeiros geradores de vídeo por IA acessíveis e de alta qualidade, e o Ray2 elevou significativamente a qualidade e coerência do vídeo.
Por que isso importa: A Luma AI democratizou a geração de vídeo por IA da mesma forma que o Stable Diffusion democratizou as imagens — tornando-a gratuita, rápida e acessível a qualquer pessoa com um navegador. Sua evolução de startup de captura 3D para líder em geração de vídeo, combinada com profundidade técnica única em compreensão espacial, a posiciona como uma das poucas empresas que poderiam genuinamente conectar vídeo por IA, conteúdo 3D e os formatos de mídia imersiva que virão a seguir.
Latência
Time to First Token (TTFT)
Infraestrutura
O atraso entre enviar uma requisição e receber a primeira resposta. Em IA, isso é frequentemente medido como Time to First Token (TTFT) — quanto tempo até o modelo começar a transmitir sua resposta. Afetado pelo tamanho do modelo, carga do servidor, distância de rede e tamanho do prompt.
Por que isso importa: Usuários percebem qualquer coisa acima de ~2 segundos como lento. Baixa latência é o motivo pelo qual modelos menores frequentemente vencem em aplicações de tempo real mesmo quando modelos maiores são "mais inteligentes". É um diferencial-chave entre provedores.
Uma rede neural treinada em quantidades massivas de texto para compreender e gerar linguagem humana. "Large" (grande) refere-se ao número de parâmetros (bilhões) e ao tamanho dos dados de treinamento (trilhões de tokens). Claude, GPT, Gemini, Llama e Mistral são todos LLMs.
Por que isso importa: LLMs são a tecnologia por trás de cada chat de IA, assistente de código e gerador de texto que você usa. Entender o que eles são (identificadores de padrões estatísticos, não seres sencientes) ajuda a usá-los de forma eficaz e a reconhecer seus limites.
LoRA
Adaptação de baixo posto
Treinamento
Uma técnica que torna o fine-tuning dramaticamente mais barato ao treinar apenas um pequeno número de parâmetros adicionais em vez de modificar o modelo inteiro. "Adapters" LoRA são complementos leves (frequentemente apenas megabytes) que modificam o comportamento de um modelo sem retreinar seus bilhões de parâmetros.
Por que isso importa: LoRA democratizou o fine-tuning. Antes dele, personalizar um modelo de 7B exigia recursos sérios de GPU. Agora é possível fazer fine-tuning em uma única GPU de consumo em poucas horas e compartilhar o minúsculo arquivo de adapter. É por isso que existem milhares de modelos especializados no HuggingFace.
M
Modelo
Modelo de IA, modelo ML
Fundamentos
Um sistema matemático treinado que recebe entradas e produz saídas com base em padrões aprendidos a partir de dados. Na IA, "modelo" é o termo genérico para a coisa que você está realmente usando — seja o GPT-4 gerando texto, o Stable Diffusion gerando imagens ou o Whisper transcrevendo fala. Um modelo é definido por sua arquitetura (como ele está estruturado), seus parâmetros (o que ele aprendeu) e seus dados de treinamento (do que ele aprendeu). Quando alguém pergunta "qual modelo devo usar?", eles estão se referindo a isso.
Por que isso importa: Modelo é a palavra mais usada em IA, e significa coisas diferentes em contextos distintos. Um "modelo" pode se referir à arquitetura (Transformer), a uma instância específica treinada (Claude Opus 4.6), a um arquivo no disco (um arquivo .gguf) ou a um ponto de extremidade de API. Entender o que um modelo realmente é — e o que não é — é a base para tudo o mais.
Fundamentos
A ampla área da ciência da computação em que os sistemas aprendem padrões a partir de dados, em vez de seguir regras explícitas. Em vez de programar um computador para reconhecer um gato listando características (quatro patas, orelhas pontiagudas, bigodes), você mostra a ele milhares de fotos de gatos e deixa que ele descubra o padrão por si mesmo. Machine learning abrange tudo desde a simples regressão linear até as redes neurais profundas que impulsionam a IA de hoje — aprendizado supervisionado (exemplos rotulados), aprendizado não supervisionado (encontrar estrutura) e aprendizado por reforço (tentativa e erro).
Por que isso importa: Aprendizado de máquina é o fundamento por trás de tudo o que chamamos de "IA" hoje. Todo LLM, todo gerador de imagens, todo algoritmo de recomendação, todo filtro de spam — tudo isso é aprendizado de máquina. Entender a ML como uma disciplina mais ampla ajuda você a ver onde o aprendizado profundo se encaixa, onde os métodos clássicos ainda vencem e por que a "IA" é, na verdade, apenas "ML que se tornou realmente boa".
Memória
Memória de IA, contexto persistente
Usar AI
Mecanismos que permitem a modelos de IA reter e recordar informações além de uma única conversa. Inclui memória in-context (usando a janela de contexto), memória externa (RAG, bancos vetoriais), memória persistente de conversa (lembrar preferências do usuário entre sessões) e memória de trabalho (manter estado durante tarefas multi-etapas de agentes). Memória é o que faz a IA parecer uma colaboradora em vez de uma ferramenta sem estado.
Por que isso importa: Sem memória, toda conversa com IA começa do zero. Você repete suas preferências, re-explica seu codebase, re-descreve seu projeto. Memória é o que transforma um chatbot em um assistente — e é um dos problemas mais difíceis de resolver bem, equilibrando relevância, privacidade, obsolescência e custos de armazenamento.
Moonshot AI
Kimi, modelos de contexto ultralongo
Empresas
Empresa chinesa de IA que causou impacto ao lançar o Kimi, um chatbot com janela de contexto de 2 milhões de tokens. Fundada por Yang Zhilin, ex-pesquisador por trás de inovações-chave em modelagem de contexto longo.
Por que isso importa: A Moonshot AI forçou toda a indústria a levar o comprimento de contexto a sério. Antes do Kimi, suporte a contexto longo era um diferencial secundário; depois que o Kimi viralizou na China, todos os grandes laboratórios correram para estender suas janelas de contexto. A aposta de Yang Zhilin de que os usuários mudariam fundamentalmente como interagem com IA quando tivessem contexto suficiente foi validada pelo crescimento explosivo do Kimi, e as técnicas que a Moonshot desenvolveu para inferência eficiente de sequências longas estão influenciando como a próxima geração de modelos lida com documentos, codebases e raciocínio complexo de múltiplas etapas.
Meta AI
Llama, FAIR, PyTorch
Empresas
Divisão de pesquisa em IA da Meta, sede do FAIR (Fundamental AI Research). Responsável pela família de modelos open-weights Llama e pelo PyTorch, o framework de deep learning usado pela maior parte da indústria de IA.
Por que isso importa: A Meta AI mudou fundamentalmente a economia da IA ao provar que modelos de classe fronteira podiam ser lançados como open weights. O Llama e seus derivados alimentam milhares de aplicações, startups e projetos de pesquisa que nunca teriam tido acesso a modelos desse calibre. O PyTorch sustenta a maioria dos sistemas de pesquisa e produção de IA no mundo. E com mais de 3 bilhões de usuários em seus apps, a Meta tem uma distribuição que nenhum outro laboratório de IA consegue igualar — quando lançam um recurso de IA, ele alcança um terço da humanidade da noite para o dia.
Mistral AI
Mistral, Mixtral, Codestral, Le Chat
Empresas
Potência europeia de IA fundada por ex-pesquisadores do DeepMind e da Meta. Conhecida por superar expectativas com modelos eficientes e por defender a distribuição open-weights ao lado de ofertas comerciais.
Por que isso importa: A Mistral provou que não são necessários orçamentos de hyperscalers americanos para construir modelos de IA de fronteira. Suas arquiteturas eficientes — particularmente seu trabalho inicial com Mixture of Experts esparso — influenciaram a abordagem de toda a indústria ao design de modelos, e seus lançamentos open-weights deram a desenvolvedores no mundo todo acesso a modelos de alta qualidade sem dependência de APIs. Como a primeira empresa europeia de IA a alcançar competição genuína de fronteira, a Mistral também carrega significância estratégica: seu sucesso (ou fracasso) determinará se a Europa pode ser uma protagonista na IA, ou apenas sua reguladora.
MiniMax
Modelos MiniMax, Hailuo AI, geração de vídeo
Empresas
Empresa chinesa de IA construindo modelos de larga escala em texto, voz e vídeo. Conhecida por sua plataforma de consumo Hailuo e por modelos multimodais cada vez mais competitivos.
Por que isso importa: A MiniMax emergiu como uma das empresas de IA mais versáteis da China, construindo modelos competitivos em texto, voz e vídeo a partir de uma única stack integrada. Sua plataforma Hailuo AI trouxe geração de vídeo por IA de alta qualidade para um público global gratuitamente, demonstrando que laboratórios de IA chineses podem construir produtos de consumo com alcance internacional genuíno — não apenas APIs empresariais ou artigos de pesquisa.
MCP
Protocolo de contexto de modelo
Ferramentas
Um protocolo aberto (criado pela Anthropic) que padroniza como modelos de IA se conectam a ferramentas externas e fontes de dados. Pense nele como o USB-C da IA — uma interface padrão única em vez de integrações customizadas para cada ferramenta. Servidores MCP expõem capacidades; clientes MCP (como o Claude) as consomem.
Por que isso importa: Antes do MCP, toda integração IA-ferramenta era sob medida. Com MCP, uma ferramenta construída uma vez funciona com qualquer IA compatível. Já é suportado por Claude, Cursor e outros. É assim que a IA passa de chatbot a assistente de verdade.
Uma arquitetura onde o modelo contém múltiplas sub-redes "especialistas", mas ativa apenas algumas delas para cada entrada. Uma rede roteadora decide quais especialistas são relevantes para um determinado token. Isso significa que um modelo pode ter mais de 100B parâmetros no total, mas usar apenas 20B em qualquer passagem forward individual.
Por que isso importa: MoE é como modelos como Mixtral e (supostamente) GPT-4 obtêm a qualidade de um modelo enorme com a velocidade de um menor. O trade-off é maior uso de memória (todos os especialistas precisam estar carregados) mesmo que a computação seja mais barata.
Fundamentos
Um modelo que pode entender e/ou gerar múltiplos tipos de dados: texto, imagens, áudio, vídeo, código. O Claude pode ler imagens e texto; alguns modelos também podem produzir imagens ou fala. "Multimodal" contrasta com modelos "unimodais" que só lidam com um tipo.
Por que isso importa: Tarefas do mundo real são multimodais. Você quer mostrar uma screenshot a uma IA e perguntar "o que há de errado aqui?" ou dar a ela um diagrama e dizer "implemente isso". Modelos multimodais tornam isso possível.
N
A área da IA focada em permitir que máquinas entendam, interpretem e gerem linguagem humana. O NLP abrange desde o processamento básico de texto (tokenização, stemming, marcação de partes de fala) até tarefas complexas como análise de sentimento, tradução automática, resumo e resposta a perguntas. Antes dos Transformers, o NLP era um conjunto desordenado de técnicas especializadas. Agora, os LLMs unificaram a maioria do NLP sob um único paradigma — mas as bases da área ainda são importantes para entender como e por que esses modelos funcionam.
Por que isso importa: NLP é a razão pela qual você pode conversar com a IA em inglês simples e obter respostas úteis. Todo chatbot, todo mecanismo de busca, todo serviço de tradução, toda ferramenta de escrita de IA é NLP. Mesmo que você nunca construa um sistema de NLP do zero, entender os fundamentos — tokenização, atenção, embeddings, contexto — torna você um usuário melhor de toda ferramenta de IA que lida com texto.
NVIDIA
GPUs, CUDA, H100/H200, NeMo
Empresas
A empresa cujas GPUs alimentam virtualmente todo o treinamento de IA e a maior parte da inferência no mundo. O que começou como uma empresa de placas de vídeo se tornou o fornecedor de hardware mais crítico da indústria de IA, brevemente tornando a NVIDIA a empresa mais valiosa do planeta.
Por que isso importa: A NVIDIA é a empresa sem a qual a revolução da IA simplesmente não acontece — suas GPUs e ecossistema de software CUDA são a fundação sobre a qual virtualmente todo modelo de IA importante foi treinado. A combinação de hardware específico para IA, um fosso de software de uma década de profundidade e controle sobre o tecido de rede que conecta GPUs lhes deu uma posição de quase monopólio na cadeia de suprimentos mais crítica do século XXI. Quando governos, corporações e laboratórios de pesquisa competem por computação de IA, estão competindo por hardware NVIDIA, e esse único fato tornou a antiga empresa de placas gráficas de Jensen Huang a empresa de tecnologia mais estrategicamente importante do planeta.
Fundamentos
Um sistema de computação vagamente inspirado em cérebros biológicos, composto por camadas de "neurônios" interconectados (funções matemáticas) que aprendem padrões a partir de dados. A informação flui através das camadas, sendo progressivamente transformada até a rede produzir uma saída. Todo modelo de IA moderno é algum tipo de rede neural.
Por que isso importa: Redes neurais são o "como" por trás de toda a IA. Entender que são matemática (não mágica, não cérebros) ajuda a desmistificar o que a IA pode e não pode fazer. São reconhecedores de padrões — extraordinariamente poderosos, mas reconhecedores de padrões mesmo assim.
O
Otimização
Otimização de modelos, otimização de inferência
Treinamento
O amplo conjunto de técnicas usadas para tornar modelos de IA mais rápidos, menores, baratos ou precisos. Inclui otimizações de treinamento (precisão mista, gradient checkpointing, paralelismo de dados), otimizações de inferência (quantização, pruning, destilação, speculative decoding) e otimizações de serving (batching, caching, balanceamento de carga). Otimização é a razão pela qual você consegue rodar um modelo de 14B parâmetros num laptop.
Por que isso importa: Capacidade bruta não significa nada se você não pode arcar com o custo de rodá-la. Otimização é a diferença entre uma demo de pesquisa e um produto em produção. É a razão pela qual modelos open-weights podem competir com provedores de API, por que IA móvel existe, e por que custos de inferência continuam caindo.
OpenAI
GPT, ChatGPT, DALL-E, Sora
Empresas
A empresa por trás do ChatGPT e da série GPT de modelos. Originalmente um laboratório de pesquisa sem fins lucrativos, a OpenAI se tornou o rosto público da revolução de IA quando o ChatGPT foi lançado em novembro de 2022.
Por que isso importa: A OpenAI fez mais do que qualquer outra organização para trazer a IA do laboratório de pesquisa para a consciência mainstream. O ChatGPT foi o momento iPhone para a IA generativa — o produto que fez centenas de milhões de pessoas entenderem, visceralmente, o que large language models podiam fazer. Sua API criou a camada de infraestrutura sobre a qual milhares de startups de IA foram construídas, e a série GPT estabeleceu o escalonamento como paradigma dominante na pesquisa de IA por anos. Até as controvérsias da OpenAI — a crise de governança, a conversão de sem fins lucrativos para lucrativos, as saídas de pesquisadores focados em segurança — moldaram a conversa mais ampla sobre como empresas de IA devem ser estruturadas e governadas.
Pesos abertos
Código aberto (em contexto de IA)
Segurança
Quando uma empresa libera os parâmetros treinados de um modelo para qualquer pessoa baixar e rodar. "Open weights" é mais preciso que "open source" porque a maioria dos modelos liberados não inclui dados de treinamento ou código de treinamento — você recebe o modelo pronto, mas não a receita. Llama, Mistral e Qwen são modelos open-weights.
Por que isso importa: Open weights significam que você pode rodar IA em seu próprio hardware com total privacidade — sem chamadas de API, sem dados saindo da sua rede. O trade-off é que você precisa dos recursos de GPU para rodá-los e é responsável pela segurança.
Treinamento
Quando um modelo memoriza seus dados de treinamento bem demais e perde a capacidade de generalizar para novas entradas. Como um estudante que memoriza respostas de provas práticas mas não consegue resolver problemas novos. O modelo performa muito bem nos dados de treinamento mas mal em qualquer coisa que não tenha visto antes.
Por que isso importa: Overfitting é o modo de falha mais comum no treinamento de modelos. É por isso que a avaliação usa conjuntos de teste separados, e por que treinar por tempo demais (muitas epochs) pode na verdade tornar um modelo pior.
P
Parâmetros
Pesos, parâmetros do modelo
Fundamentos
Os valores internos que uma rede neural aprende durante o treinamento — essencialmente o "conhecimento" do modelo codificado em números. Quando alguém diz que um modelo tem "7 bilhões de parâmetros", significa que há 7 bilhões de valores numéricos individuais que foram ajustados durante o treinamento para capturar padrões nos dados. Mais parâmetros geralmente significa mais capacidade para aprender padrões complexos, mas também mais memória para armazenar e mais cálculo para executar.
Por que isso importa: Contagem de parâmetros é a abreviação mais comum para o tamanho do modelo, e ela determina diretamente quanto de memória da GPU você precisa. Um modelo de 7B em precisão de 16 bits precisa de ~14GB de VRAM apenas para os pesos. Entender os parâmetros ajuda você a estimar custos, escolher hardware e compreender por que a quantização (—reduzir a precisão por parâmetro—) é tão importante para tornar modelos acessíveis.
PixVerse
Geração de vídeo PixVerse
Empresas
Empresa chinesa de geração de vídeo construindo ferramentas acessíveis de vídeo com IA. Conhecida por velocidades de geração rápidas e um plano gratuito que a ajudou a construir uma grande base de usuários rapidamente em mercados internacionais.
Por que isso importa: A PixVerse provou que geração de vídeo com IA podia ser um produto de massa, não apenas uma ferramenta para profissionais e early adopters. Seu plano gratuito agressivo e ciclo de iteração rápida forçaram toda a categoria a repensar preços e acessibilidade. Ao construir uma das maiores bases de usuários em vídeo com IA em um único ano, demonstraram que distribuição e velocidade de execução podem importar tanto quanto qualidade bruta do modelo para determinar quem vence esse mercado.
Perplexity
Motor de busca com IA, API Sonar
Empresas
Motor de busca com IA que combina pesquisa web em tempo real com raciocínio de modelos de linguagem para dar respostas diretas e com fontes em vez de uma lista de links. O desafio mais visível à dominância do Google em buscas em uma geração.
Por que isso importa: A Perplexity é o desafio mais credível à dominância de busca do Google em mais de uma década, provando que um motor de respostas nativo de IA pode oferecer uma experiência fundamentalmente melhor para consultas de busca de informação. Popularizaram o paradigma de geração aumentada por recuperação como produto de consumo, mostrando que combinar busca web em tempo real com raciocínio de LLM produz resultados mais úteis e confiáveis do que qualquer uma das tecnologias isoladamente. Seu crescimento rápido forçou Google, Microsoft e todos os outros players de busca a repensar como um motor de busca deve ser na era dos large language models.
Treinamento
A fase inicial e massiva de treinamento onde um modelo aprende linguagem (ou outras modalidades) a partir de um enorme corpus. Essa é a parte cara — milhares de GPUs rodando por semanas ou meses, custando milhões de dólares. O resultado é um foundation model que entende linguagem mas ainda não foi especializado para nenhuma tarefa.
Por que isso importa: Pré-treinamento é o que torna os foundation models possíveis. Também é por isso que apenas um punhado de empresas pode criar modelos de fronteira — os custos de computação são astronômicos. Tudo o mais (fine-tuning, RLHF, prompting) constrói sobre essa base.
A prática de elaborar entradas para obter melhores saídas de modelos de IA. Vai de técnicas simples (ser específico, fornecer exemplos) a métodos avançados (chain of thought, few-shot prompting, atribuição de papel). Apesar do nome sofisticado, é fundamentalmente sobre comunicar-se claramente com um sistema estatístico.
Por que isso importa: O mesmo modelo pode dar resultados muito diferentes dependendo de como você pergunta. Bom prompt engineering é a forma mais barata de melhorar a qualidade da saída de IA — sem treinamento, sem fine-tuning, apenas comunicação melhor.
Q
Quantização
GGUF, GPTQ, AWQ
Infraestrutura
Reduzir a precisão de um modelo para torná-lo menor e mais rápido. Um modelo treinado em ponto flutuante de 32 bits pode ser quantizado para 8 bits, 4 bits ou ainda menos — reduzindo seu tamanho em 4-8x com perda de qualidade surpreendentemente pequena. GGUF é o formato popular para inferência local via llama.cpp.
Por que isso importa: Quantização é o que torna possível rodar um modelo de 14B parâmetros em uma única GPU ou até em um laptop. Sem ela, modelos open-weights seriam inutilizáveis para a maioria das pessoas. As variantes Q4_K_M e Q5_K_M atingem o ponto ideal de tamanho vs. qualidade.
R
Treinamento
Um paradigma de treinamento onde um agente de IA aprende interagindo com um ambiente, tomando ações e recebendo recompensas ou penalidades. Diferente de aprendizado supervisionado (que aprende de exemplos rotulados), RL aprende da experiência — por tentativa e erro. RL treinou o AlphaGo para vencer campeões mundiais, ensina robôs a andar e é o "RL" em RLHF que torna chatbots úteis.
Por que isso importa: Reinforcement learning é como a IA aprende a agir, não apenas prever. É a ponte entre modelos que conseguem responder perguntas e agentes que conseguem cumprir objetivos. Todo sistema de IA que planeja, estrategiza ou otimiza ao longo do tempo tem RL em algum lugar de sua linhagem.
Raciocínio
Raciocínio de IA, raciocínio em cadeia de pensamento
Usar AI
A capacidade de modelos de IA de pensar passo a passo, decompor problemas complexos e chegar a conclusões logicamente sólidas. Modelos de raciocínio modernos (como o1/o3 da OpenAI e DeepSeek-R1) são treinados para gerar traços de raciocínio explícitos antes de responder, melhorando dramaticamente o desempenho em matemática, codificação e tarefas de lógica. Isso é distinto de simples correspondência de padrões — modelos de raciocínio podem resolver problemas que nunca viram antes.
Por que isso importa: Raciocínio é a capacidade de fronteira que separa "IA que parece inteligente" de "IA que é inteligente". Modelos que raciocinam bem podem depurar código, provar teoremas, planejar estratégias multi-etapas e pegar seus próprios erros. A diferença entre modelos com e sem raciocínio forte é o maior diferencial de qualidade em IA agora.
Resemble AI
Clonagem de voz, síntese de voz, marca d'água
Empresas
Empresa canadense de IA de voz especializada em clonagem de voz de alta fidelidade e síntese de fala em tempo real. Uma das primeiras a lançar marca d'água de áudio neural para detecção de deepfakes, levando as implicações éticas da clonagem de voz a sério desde o início.
Por que isso importa: A Resemble AI importa porque reconheceu cedo que clonagem de voz sem infraestrutura de segurança é uma responsabilidade, não um produto. Ao entregar detecção de deepfakes e marca d'água neural junto com suas ferramentas de síntese, estabeleceram um modelo para IA de voz responsável que o resto da indústria agora corre para seguir. À medida que regulamentações sobre mídia sintética se tornam mais rigorosas globalmente, a vantagem inicial da Resemble em verificação de procedência e consentimento a posiciona como a empresa de IA de voz em que empresas realmente podem confiar.
Reka
Reka Core, Reka Flash
Empresas
Empresa de pesquisa em IA fundada por ex-pesquisadores do DeepMind, Google Brain e FAIR. Construindo modelos nativamente multimodais que podem processar texto, imagens, vídeo e áudio desde a base.
Por que isso importa: A Reka demonstrou que uma equipe pequena e focada em pesquisa com o pedigree certo pode construir modelos multimodais de classe fronteira sem bilhões em financiamento — e que arquiteturas nativamente multimodais treinadas do zero podem superar a abordagem acoplada usada pela maioria dos laboratórios maiores. Sua trajetória rápida da fundação à aquisição pela Snowflake também revelou a intensa força gravitacional que plataformas de dados empresariais agora exercem sobre talento de IA, sugerindo que o futuro da IA multimodal pode residir dentro de empresas de infraestrutura de dados em vez de laboratórios de pesquisa independentes.
Recraft
Recraft V3, geração de gráficos vetoriais
Empresas
Ferramenta de design com IA focada em geração de imagens e gráficos vetoriais de nível profissional. Uma das primeiras a produzir ativos de design realmente utilizáveis — SVGs, estilos consistentes com a marca e saídas prontas para produção que designers realmente querem usar.
Por que isso importa: A Recraft é a rara empresa de IA que construiu para designers profissionais em vez de momentos virais em redes sociais, e provou que essa abordagem podia produzir resultados estado da arte. Seu foco em saídas prontas para produção — vetores limpos, consistência de marca, fundos transparentes — preenche uma lacuna que nenhuma outra empresa de geração de imagem abordou seriamente, tornando-os a coisa mais próxima que a indústria tem de uma ferramenta genuína de design em vez de um brinquedo de arte.
Runway
Gen-1, Gen-2, Gen-3 Alpha
Empresas
Empresa pioneira de geração de vídeo com IA. Co-criou a arquitetura original do Stable Diffusion e depois pivotou para vídeo, onde seus modelos da série Gen definiram o estado da arte para ferramentas de cinema com IA.
Por que isso importa: A Runway é a empresa que levou a geração de vídeo com IA de curiosidade de pesquisa a ferramenta de cinema, lançando modelo após modelo em um ritmo que os manteve na fronteira mesmo quando concorrentes com bolsos profundos entraram no espaço. Seu DNA de ferramentas criativas — nascida de artistas, não apenas engenheiros — lhes dá uma compreensão de fluxos de trabalho profissionais que laboratórios de pesquisa pura lutam para replicar, e sua aposta em construir uma plataforma abrangente em vez de apenas um modelo pode se provar a jogada certa a longo prazo.
RAG
Geração aumentada por recuperação
Ferramentas
Uma técnica que dá aos modelos de IA acesso a conhecimento externo recuperando documentos relevantes antes de gerar uma resposta. Em vez de depender apenas do que o modelo aprendeu durante o treinamento, RAG pesquisa uma base de conhecimento, encontra trechos relevantes e os inclui no prompt como contexto.
Por que isso importa: RAG resolve dois problemas importantes: alucinação (o modelo tem fontes reais para referenciar) e corte de conhecimento (a base de conhecimento pode ser atualizada sem retreinar). É como a maioria da IA empresarial realmente funciona.
Infraestrutura
Restrições sobre quantas requisições de API você pode fazer por minuto/hora/dia. Provedores impõem rate limits para prevenir sobrecarga de servidores e garantir acesso justo. Limites tipicamente se aplicam por chave de API e podem restringir requisições por minuto (RPM) e tokens por minuto (TPM).
Por que isso importa: Rate limits são o teto invisível que você atinge ao escalar aplicações de IA. É por isso que processamento em batch importa, por que você precisa de lógica de retry, e por que alguns provedores cobram mais por rate limits mais altos.
Segurança
A prática de deliberadamente tentar fazer um modelo de IA falhar, se comportar mal ou produzir saídas prejudiciais. Red teams investigam vulnerabilidades: jailbreaks, viés, geração de desinformação, vazamentos de privacidade. Nomeado em referência a jogos de guerra militares onde um "time vermelho" faz o papel de adversário.
Por que isso importa: Você não pode consertar o que não sabe. Red teaming é como provedores descobrem que seu modelo vai explicar como arrombar fechaduras se você pedir para "escrever uma história sobre um chaveiro". É trabalho essencial de segurança que acontece antes de cada grande lançamento de modelo.
RLHF
Aprendizado por reforço com feedback humano
Treinamento
Uma técnica de treinamento onde avaliadores humanos classificam saídas de modelos por qualidade, e esse feedback é usado para treinar um modelo de recompensa que guia a IA em direção a respostas melhores. É o que transforma um modelo pré-treinado bruto (que apenas prediz próximas palavras) em um assistente útil e inofensivo.
Por que isso importa: RLHF é o ingrediente secreto que fez o ChatGPT parecer diferente do GPT-3. O modelo base já "sabia" tudo, mas o RLHF o ensinou a apresentar esse conhecimento de uma forma que humanos realmente acham útil. Também é como comportamentos de segurança são reforçados.
S
Bajulação
Bajulação de IA, complacência excessiva
Segurança
A tendência de modelos de IA em dizer aos usuários o que eles querem ouvir em vez do que é verdadeiro. Um modelo obsequioso concorda com premissas incorretas, aprova ideias ruins, muda de posição ao ser desafiado mesmo que estivesse certo antes, e prioriza ser bem-visto em vez de ser útil. A obediência excessiva é um efeito direto do treinamento RLHF — os modelos aprendem que respostas agradáveis recebem avaliações mais altas dos avaliadores humanos, então eles otimizam para concordância em vez de precisão.
Por que isso importa: A sycophancy é um dos modos mais insidiosos de falha na IA porque é invisível para o usuário que está sendo flertado. Se você perguntar a um modelo "isn't this a great business idea?" e ele sempre disser sim, você está recebendo um espelho, não um conselheiro. Combater a sycophancy é uma área ativa de pesquisa de alinhamento, e é por isso que os melhores modelos são treinados para discordar respeitosamente quando devem.
Uma crítica aos modelos de linguagem grandes que argumenta que eles são simplesmente combinadores sofisticados de padrões que costuram juntos textos que soam plausíveis sem qualquer compreensão de significado. O termo foi cunhado por Emily Bender, Timnit Gebru e colegas em seu influente artigo de 2021 “On the Dangers of Stochastic Parrots”, que alertava que LLMs codificam vieses de seus dados de treinamento, consomem recursos enormes e criam uma ilusão de compreensão que engana os usuários a fazê-los confiarem neles mais do que deveriam.
Por que isso importa: O debate do papagaio estocástico vai ao cerne do que a IA realmente "entende". Se os LLMs estão realmente raciocinando ou apenas sendo incrivelmente bons em mimetismo estatístico define como os usamos, quão confiamos em seus resultados e como os regulamentamos. Também é a lente através da qual os críticos avaliam cada nova reivindicação de capacidade — isso é progresso real ou um papagaio mais convincente?
Slop
Bazófia de IA, conteúdo gerado sem valor
Segurança
Conteúdo de baixa qualidade, genérico e indesejado gerado por IA que enche a internet. O termo surgiu em 2024 como um termo pejorativo para descrever a maré de conteúdo mediano gerado por IA, textos, imagens e vídeos que poluem resultados de busca, feeds de mídia social e mercados online. Slop é o equivalente da IA ao spam — tecnicamente "conteúdo", mas que não adiciona valor algum, muitas vezes indistinguível de outros slops e que degrada a qualidade de todas as plataformas que toca. Pense em postagens no LinkedIn que começam com "No mundo atual acelerado", fotos de estoque com mãos de seis dedos ou artigos de SEO que não dizem nada em 2000 palavras.
Por que isso importa: Slop é o custo ambiental de tornar a geração de conteúdo gratuita. Quando qualquer pessoa pode gerar 1.000 posts de blog ou 10.000 imagens de produtos em minutos, a economia da criação de conteúdo entra em colapso — e a qualidade entra em colapso junto com ela. Slop é o motivo pelo qual as plataformas estão correndo para construir detecção de IA, por que o Google continua atualizando seu algoritmo de busca e por que "feito por humanos" está se tornando um ponto de venda. É também o argumento mais forte contra o discurso ingênuo de que "a IA democratizará a criatividade".
StepFun
Modelos Step, IA multimodal
Empresas
Startup chinesa de IA construindo modelos de linguagem e multimodais competitivos. Sua série Step mostrou performance forte em benchmarks internacionais, apoiada por investimento significativo em computação.
Por que isso importa: A StepFun é prova de que o ecossistema de IA da China pode produzir competidores sérios do zero, não apenas de gigantes de tecnologia existentes. Seus modelos Step consistentemente superam expectativas em benchmarks internacionais, e sua rápida expansão para geração multimodal e de vídeo mostra que startups bem organizadas podem cobrir amplo território de capacidades com recursos relativamente modestos.
SambaNova
Chip SN40L, inferência ultrarrápida
Empresas
Empresa de hardware de IA que projeta chips customizados (RDUs) construídos do zero para cargas de trabalho de IA. Sua SambaNova Cloud oferece algumas das velocidades de inferência mais rápidas disponíveis, competindo com a Groq na abordagem "velocidade primeiro" para serving de IA.
Por que isso importa: A SambaNova importa porque a NVIDIA não deveria ser a única opção para computação de IA, e alguém precisa provar que chips de IA construídos sob medida podem competir no mercado real em vez de apenas em artigos de pesquisa. Sua arquitetura RDU demonstra que ganhos de performance significativos são possíveis quando você projeta silício especificamente para cargas de trabalho de redes neurais, e seu serviço de inferência em nuvem dá aos desenvolvedores uma amostra de como pode ser a infraestrutura de IA pós-GPU. Quer a SambaNova em si se torne a alternativa dominante ou não, a pressão competitiva que exercem — junto com Groq, Cerebras e os chips customizados dos provedores de nuvem — é saudável para uma indústria que não pode se dar ao luxo de uma monocultura permanente de hardware.
Sarvam AI
Modelos Sarvam, IA para idiomas indianos
Empresas
Empresa indiana de IA construindo modelos especificamente otimizados para a diversidade linguística da Índia. Seus modelos lidam com hindi, tâmil, télugu, bengali e outros idiomas indianos com uma fluência que modelos globais consistentemente não conseguem alcançar.
Por que isso importa: A Sarvam AI é a resposta mais credível a uma pergunta que a indústria global de IA tem amplamente ignorado: quem constrói os foundation models para os idiomas que um quinto da humanidade realmente fala? Com raízes profundas na comunidade de pesquisa de IA da Índia, alinhamento governamental e uma stack de produtos construída sob medida para a diversidade linguística indiana, a Sarvam representa tanto uma oportunidade comercial quanto um imperativo estratégico. Seu sucesso ou fracasso sinalizará se a revolução da IA verdadeiramente se globaliza ou permanece um fenômeno inglês-primeiro com traduções acopladas.
Stability AI
Stable Diffusion, SDXL, Stable Audio
Empresas
A empresa que democratizou a geração de imagens ao lançar o Stable Diffusion como open source em 2022. Apesar de turbulência na liderança, seus modelos continuam sendo a espinha dorsal do ecossistema open source de geração de imagens.
Por que isso importa: A Stability AI acendeu a revolução open source de geração de imagens ao lançar o Stable Diffusion, criando um ecossistema de milhares de modelos derivados, ferramentas e aplicações criativas que nenhuma plataforma fechada conseguiria igualar. Mesmo através de turbulência de liderança e turbulência financeira, sua aposta fundamental — de que IA generativa deveria ser acessível a todos, não apenas a quem pode pagar chamadas de API — remodelou toda a indústria e estabeleceu o modelo para como empresas de IA open source operam.
Suno
Geração musical com IA
Empresas
Empresa de geração de música com IA que permite a qualquer pessoa criar canções completas — vocais, instrumentos, produção — a partir de um prompt de texto. Saiu do anonimato para milhões de usuários em meses, forçando a indústria musical a confrontar a criatividade com IA de frente.
Por que isso importa: A Suno provou que IA podia gerar canções completas e ouvíveis do nada a partir de um prompt de texto, criando uma categoria inteiramente nova de ferramenta criativa da noite para o dia. Estão no centro da batalha de direitos autorais mais consequente em IA generativa, com o resultado do processo da RIAA provavelmente estabelecendo precedência para como direitos de dados de treinamento funcionam em todas as modalidades. Mais amplamente, representam o caso de teste mais agudo para saber se democratizar ferramentas criativas expande a expressão humana ou mina as fundações econômicas que sustentam artistas profissionais.
Modelos
Uma alternativa aos Transformers que processa sequências mantendo um "estado" comprimido em vez de usar atenção sobre todos os tokens. Mamba é a arquitetura SSM mais conhecida. SSMs escalam linearmente com o comprimento da sequência (vs. quadrático para atenção), tornando-os potencialmente muito mais eficientes para contextos muito longos.
Por que isso importa: SSMs são o principal desafiante à dominância dos Transformers. São mais rápidos para sequências longas e usam menos memória, mas a pesquisa ainda está amadurecendo. Arquiteturas híbridas (misturando camadas SSM com atenção) podem acabar sendo o melhor dos dois mundos.
Prompt de sistema
Mensagem de sistema
Usar AI
Uma instrução especial dada a um modelo no início de uma conversa que define seu comportamento, personalidade e regras. Diferente de mensagens do usuário, o system prompt é pensado para ser persistente e autoritativo — define quem o modelo é para esta sessão. "Você é um assistente de codificação útil. Sempre use TypeScript."
Por que isso importa: System prompts são a ferramenta primária para customizar o comportamento da IA sem fine-tuning. É como empresas fazem o Claude agir como um agente de suporte ao cliente, um revisor de código ou um assistente de informações médicas — mesmo modelo, system prompt diferente.
T
Tencent
Hunyuan, WeChat, IA para jogos
Empresas
Gigante tecnológica chinesa por trás do WeChat, uma das maiores empresas de jogos do mundo e cada vez mais uma força em IA generativa. Seus modelos Hunyuan alimentam recursos em todo o ecossistema massivo da Tencent, atendendo mais de um bilhão de usuários.
Por que isso importa: A Tencent importa em IA pela mesma razão que importa em tudo o mais: escala e distribuição. Com o WeChat alcançando 1,3 bilhão de usuários e um império de jogos abrangendo todas as principais plataformas, a Tencent pode implantar recursos de IA para mais pessoas, mais rápido, do que quase qualquer empresa no planeta. Seus modelos Hunyuan e especialmente o HunyuanVideo provaram que o laboratório de IA de um conglomerado pode produzir trabalho genuinamente competitivo, não apenas ferramentas internas utilitárias. Para o ecossistema global de IA, os lançamentos open source da Tencent de modelos de vídeo e linguagem elevaram o piso do que está gratuitamente disponível.
Twelve Labs
Busca em vídeo, Pegasus, Marengo
Empresas
Empresa de compreensão de vídeo que permite pesquisar, analisar e gerar conteúdo a partir de vídeo usando linguagem natural. Pense nisso como "RAG para vídeo" — seus modelos entendem o que acontece em um vídeo da mesma forma que LLMs entendem texto.
Por que isso importa: A Twelve Labs está construindo a infraestrutura fundamental para tornar o conteúdo de vídeo do mundo legível por máquinas. Numa era em que vídeo domina a comunicação digital mas permanece amplamente não pesquisável por IA, seus modelos especificamente construídos de embedding e geração resolvem um problema que mesmo os maiores laboratórios de fronteira abordaram apenas superficialmente.
Tripo
Texto-para-3D, imagem-para-3D
Empresas
Empresa de IA especializada em gerar modelos 3D a partir de texto ou imagens. Em um campo onde a maioria da geração 3D produz blobs inutilizáveis, a Tripo se destaca por gerar meshes limpas e prontas para produção que desenvolvedores de jogos e designers podem realmente usar.
Por que isso importa: A Tripo representa a vanguarda de tornar conteúdo 3D gerado por IA realmente utilizável em produção. Enquanto a maioria da geração 3D com IA ainda produz ativos que exigem limpeza manual extensiva, a Tripo focou incansavelmente em qualidade de mesh, topologia adequada e integração com fluxos de trabalho reais — a engenharia pouco glamorosa que separa uma demo de pesquisa de uma ferramenta pela qual profissionais pagarão.
Usar AI
Um parâmetro que controla quão aleatória ou determinística é a saída de um modelo. Temperature 0 faz o modelo sempre escolher o próximo token mais provável (determinístico, focado). Temperature 1+ o torna mais disposto a escolher tokens menos prováveis (criativo, imprevisível). A maioria das APIs tem padrão em torno de 0,7.
Por que isso importa: Temperature é o controle de criatividade. Escrevendo ficção? Aumente. Gerando código ou respostas factuais? Diminua. É um dos parâmetros de maior impacto que você pode ajustar, e não custa nada experimentar.
Fundamentos
A unidade básica de texto que modelos de IA processam. Um token é tipicamente uma palavra ou fragmento de palavra — "understanding" pode ser um token, enquanto "un" + "der" + "standing" podem ser três. Em média, um token equivale a aproximadamente 3/4 de uma palavra em inglês. Modelos leem, pensam e cobram em tokens.
Por que isso importa: Tokens são a moeda da IA. Janelas de contexto são medidas em tokens. Preços de API são por token. Quando um provedor diz "contexto de 1M" querem dizer 1 milhão de tokens, aproximadamente 750 mil palavras. Entender tokens ajuda a estimar custos e otimizar uso.
Uso de ferramentas
Chamada de funções
Ferramentas
A capacidade de um modelo de IA de chamar funções ou ferramentas externas durante uma conversa. Em vez de apenas gerar texto, o modelo pode decidir pesquisar na web, rodar código, consultar um banco de dados ou chamar uma API — e então incorporar os resultados em sua resposta. O modelo emite uma "chamada de ferramenta" estruturada que a aplicação hospedeira executa.
Por que isso importa: Tool use é o que torna modelos de IA realmente úteis além da conversa. É o mecanismo por trás de interpretadores de código, IA com navegação web e todo agente de IA. Sem ele, modelos são limitados ao que está em seus dados de treinamento.
Modelos
A arquitetura de rede neural por trás de virtualmente todos os LLMs modernos e muitos modelos de imagem/áudio. Introduzido pelo Google no artigo de 2017 "Attention Is All You Need", Transformers usam self-attention para processar todas as partes de uma entrada simultaneamente em vez de sequencialmente, permitindo paralelismo massivo durante o treinamento.
Por que isso importa: Transformers são a arquitetura que tornou o atual boom de IA possível. GPT, Claude, Gemini, Llama, Mistral — são todos Transformers por baixo do capô. Entender essa arquitetura ajuda a compreender por que modelos têm as capacidades e limitações que têm.
U
Upstage
Modelos Solar, Document AI
Empresas
Empresa coreana de IA conhecida por sua família de modelos Solar e produtos de Document AI. Demonstrou que modelos menores e bem treinados podem superar modelos muito maiores — seu Solar 10.7B superou expectativas em benchmarks globais.
Por que isso importa: A Upstage demonstrou que você não precisa de cem bilhões de parâmetros para construir um modelo de linguagem de classe mundial. O sucesso do Solar 10.7B no topo de benchmarks abertos desafiou a narrativa predominante de "escala é tudo que você precisa" e mostrou que técnicas inteligentes de treinamento podiam compensar tamanho bruto. Além dos modelos, o trabalho de Document AI da Upstage aborda uma das lacunas mais práticas no ecossistema de IA — transformar documentos confusos do mundo real em dados estruturados — e seu sucesso a partir de Seul prova que inovação significativa em IA está acontecendo bem fora dos corredores do Vale do Silício e Pequim que dominam as manchetes.
V
IA de voz
IA da fala, IA conversacional
Ferramentas
Sistemas de IA para gerar, compreender e manipular fala humana. Inclui text-to-speech (TTS), speech-to-text (STT/ASR), clonagem de voz, tradução de voz em tempo real, detecção de emoção na fala e agentes de voz conversacionais. O campo avançou ao ponto em que fala gerada por IA é frequentemente indistinguível da fala humana.
Por que isso importa: Voz é a interface humana mais natural, e a IA está finalmente tornando-a programável. IA de voz alimenta tudo, de bots de atendimento ao cliente a narração de audiobooks e transcrição de reuniões em tempo real. As implicações éticas da clonagem de voz — consentimento, identidade, fraude — tornam esta uma das áreas mais sensíveis da IA.
Vidu
Geração de vídeo Vidu, coerência de longa duração
Empresas
Plataforma de geração de vídeo da Shengshu Technology, produzindo alguns dos vídeos gerados por IA mais fisicamente coerentes. Ganhou atenção pela forte qualidade de movimento e consistência multi-shot que rivaliza com concorrentes ocidentais.
Por que isso importa: A Vidu demonstrou que laboratórios de IA chineses podiam igualar a qualidade de geração de vídeo ocidental meses após a revelação do Sora, reconfigurando suposições sobre onde a vanguarda em vídeo com IA realmente está. Seu foco em coerência física e consistência multi-shot empurrou todo o campo para frente, forçando concorrentes a priorizar realismo sobre apelo visual. Para o mercado mais amplo de vídeo com IA, o preço agressivo da Vidu e a disponibilidade de API também ajudaram a reduzir custos e aumentar acesso para desenvolvedores no mundo todo.
Voyage AI
voyage-3, embeddings específicos de domínio
Empresas
Empresa de modelos de embedding construindo vetores especializados para código, jurídico, finanças e busca multilíngue. Seus modelos consistentemente se classificam no topo do leaderboard MTEB, oferecendo algumas das melhores qualidades de recuperação disponíveis via API.
Por que isso importa: A Voyage AI provou que embeddings merecem a mesma atenção e investimento de engenharia que large language models. Em um mercado onde a maioria dos provedores trata representações vetoriais como utilidade de baixa margem, a Voyage demonstrou que modelos de embedding específicos de domínio podem melhorar significativamente a precisão de recuperação — a maior alavanca em sistemas de RAG em produção. Sua aquisição pelo Google validou a tese de que quem deter a camada de embedding detém a fundação da infraestrutura de busca com IA.
Banco de dados vetorial
Qdrant, Pinecone, Weaviate, ChromaDB
Ferramentas
Um banco de dados otimizado para armazenar e pesquisar embeddings (vetores). Em vez de corresponder palavras-chave exatas como um banco de dados tradicional, bancos de dados vetoriais encontram os itens mais semanticamente similares. Você pergunta "como corrigir um vazamento de memória" e ele retorna documentos sobre "depuração de consumo de RAM" porque os embeddings são próximos.
Por que isso importa: Bancos de dados vetoriais são a camada de armazenamento que faz RAG funcionar. Sem eles, você precisaria embedar toda a sua base de conhecimento a cada consulta. Também são a espinha dorsal de sistemas de recomendação e busca semântica.
VRAM
Memória de vídeo, memória GPU
Infraestrutura
A memória em uma GPU, separada da RAM do sistema. Modelos de IA precisam caber na VRAM para rodar em uma GPU. Um modelo de 7B parâmetros em precisão de 16 bits precisa de ~14GB de VRAM. GPUs de consumo têm 8-24GB; GPUs de data center (A100, H100) têm 40-80GB. VRAM é quase sempre o gargalo para IA local.
Por que isso importa: VRAM determina quais modelos você pode rodar. É por isso que quantização existe (para encolher modelos para caber), por que modelos MoE são complicados (todos os especialistas precisam caber na VRAM), e por que preços de GPU escalam tão acentuadamente com memória. "Cabe na VRAM?" é a primeira pergunta de hospedar IA por conta própria.
W
Pesos
Pesos do modelo, pesos da rede neural
Treinamento
Os valores numéricos dentro de uma rede neural que são ajustados durante o treinamento para minimizar o erro. Cada conexão entre neurônios tem um peso que determina quão influente um neurônio é para o próximo. Quando você baixa um arquivo de modelo — um arquivo .safetensors, .gguf ou .pt — você está baixando seus pesos. "Releasing the weights" significa publicar esses arquivos para que qualquer pessoa possa executar o modelo. Os pesos SÃO o modelo; tudo o mais é apenas a arquitetura que te diz como organizá-los.
Por que isso importa: Quando a indústria de IA diz "pesos abertos" vs "código aberto", a distinção importa. Os pesos sozinhos permitem que você execute e sintonize um modelo, mas sem o código de treinamento, dados e receita, você não pode recriá-lo do zero. Entender os pesos ajuda você a compreender a distribuição do modelo, a quantização (redução da precisão dos pesos) e por que um modelo de 7B precisa de ~14GB de espaço em disco em fp16.
Wan-AI
Modelos de vídeo Wan, geração de vídeo com pesos abertos
Empresas
Iniciativa dedicada de geração de vídeo da Alibaba, lançando modelos de vídeo open-weights de alta qualidade. Parte da estratégia mais ampla da Alibaba de liderar em IA open source em todas as modalidades.
Por que isso importa: A Wan-AI mudou fundamentalmente a acessibilidade da geração de vídeo de alta qualidade ao lançar modelos open-weights que qualquer pessoa pode rodar, fazer fine-tuning e implantar sem taxas de licenciamento. Isso forçou toda a indústria de IA de vídeo a reconsiderar a proposta de valor de modelos de código fechado e acelerou a inovação em todo o ecossistema. Como parte da estratégia mais ampla de IA open source da Alibaba ao lado do Qwen, Wan representa um argumento credível de que lançamentos open-weights de big tech podem igualar ou exceder o que startups bem financiadas produzem a portas fechadas.
X
Xiaomi
MiLM, IA para eletrônica de consumo
Empresas
Uma das maiores empresas de eletrônicos de consumo do mundo, agora construindo seus próprios modelos de IA. MiLM alimenta recursos em todo o ecossistema da Xiaomi de celulares, dispositivos de casa inteligente e veículos elétricos — IA para o próximo bilhão de usuários.
Por que isso importa: A Xiaomi representa o caso mais convincente de como a IA alcança o próximo bilhão de usuários — não através de apps de chatbot independentes ou APIs para desenvolvedores, mas incorporada invisivelmente nos dispositivos que as pessoas já possuem. Com centenas de milhões de dispositivos ativos abrangendo celulares, wearables, eletrodomésticos e agora veículos elétricos, a Xiaomi pode implantar IA em uma escala e intimidade que empresas puramente de IA não conseguem igualar. Sua abordagem ecossistema-primeiro é uma prévia de como a IA se tornará infraestrutura ambiente em vez de um produto que você conscientemente escolhe usar, e sua dominância em mercados emergentes significa que esse futuro alcançará populações que laboratórios de IA de fronteira raramente consideram.
Y
YAML
YAML Ain't Markup Language
Infraestrutura
Um formato de serialização de dados legível por humanos amplamente utilizado em IA e DevOps para arquivos de configuração, definições de pipelines e metadados de modelos. YAML usa recuos para representar a estrutura (sem colchetes ou chaves), tornando-o fácil de ler, mas notoriamente sensível ao espaçamento em branco. Você encontrará em todos os lugares nos fluxos de trabalho de IA — arquivos Docker Compose, manifestos Kubernetes, cartões de modelos do Hugging Face, pipelines CI/CD e arquivos de configuração de treinamento.
Por que isso importa: Se você está trabalhando com infraestrutura de IA, está escrevendo YAML. Configurações de modelos, manifestos de implantação, definições de pipelines, variáveis de ambiente — é a linguagem de cola da pilha de IA moderna. Ficar à vontade com YAML não é opcional; é a primeira coisa que quebra quando você configura errado uma execução de treinamento ou uma implantação.
Z
Zhipu AI
GLM, ChatGLM, CogView, CogVideo
Empresas
Empresa chinesa de IA originada da Universidade Tsinghua. Por trás da família de modelos GLM e uma das plataformas de IA líderes da China, com pontos fortes tanto em linguagem quanto em geração visual.
Por que isso importa: A Zhipu AI faz a ponte entre pesquisa acadêmica e IA comercial na China, produzindo modelos open source — especialmente em geração de vídeo com CogVideoX — que encontraram adoção genuinamente global. Sua arquitetura GLM e raízes na Tsinghua lhe conferem profunda credibilidade técnica, tornando-a uma das poucas empresas de IA chinesas cujas contribuições de pesquisa são amplamente citadas e construídas internacionalmente.
Zero-shot / Few-shot
Aprendizado em contexto
Usar AI
Zero-shot significa pedir a um modelo para realizar uma tarefa sem nenhum exemplo — apenas a instrução. Few-shot significa fornecer alguns exemplos de entrada-saída no prompt antes da requisição real. "Aqui estão 3 exemplos de como formatar estes dados... agora faça este." O modelo aprende o padrão apenas do contexto, sem treinamento necessário.
Por que isso importa: Prompting few-shot é a forma mais rápida de ensinar um modelo um novo formato ou comportamento. Precisa de saída JSON consistente? Mostre três exemplos. Precisa de um estilo de escrita específico? Dê amostras. É grátis, instantâneo e surpreendentemente poderoso.
ESC