MCP (Model Context Protocol)
Também conhecido como: Model Context Protocol, Anthropic MCP
Definição
MCP (Model Context Protocol) é um protocolo aberto criado pela Anthropic em 2024 que padroniza como aplicações de IA expõem dados e ferramentas pra LLMs. Funciona como "USB-C dos agentes" — qualquer servidor MCP plugado a qualquer cliente MCP. Já tem servidores oficiais pra Postgres, Slack, GitHub, Google Drive.
↳ Explicação completa
Model Context Protocol (MCP) é um protocolo aberto desenhado pra resolver fragmentação de integrações em ecossistema de agentes IA. Antes do MCP, cada integração era custom: agente A → adapter pra Slack, agente B → outro adapter pra Slack. Com MCP, existe um servidor MCP único pra Slack que qualquer cliente MCP-compatível consome. Pense no padrão: cliente MCP (Claude Desktop, Cursor, agente custom) ↔ servidor MCP (Postgres, Google Drive, Slack, GitHub, sistemas internos). Lançado pela Anthropic em novembro 2024 e adotado rapidamente — Cursor, Continue, Zed, Sourcegraph implementaram clientes; OpenAI sinalizou suporte em 2025. Servidores MCP oficiais cobrem Postgres, Filesystem, Git, GitHub, Slack, Google Drive, Memory (long-term), Puppeteer, Brave Search e mais. Pra empresa brasileira que constrói agente custom: implementar 1 servidor MCP do seu sistema (ex: clínica → MCP que expõe agenda + pacientes) torna o agente plugável em qualquer cliente futuro sem retrabalho.
Atualizado em
Termos relacionados
Quer aplicar MCP (Model Context Protocol) na sua operação?
Diagnóstico gratuito de 30 minutos pra clínicas. Mapeamos gargalos onde IA conversacional encaixa.
Agendar diagnóstico gratuitoOutros termos · Tecnologia & IA
LLM (Large Language Model)
LLM (Large Language Model) é um modelo de inteligência artificial treinado em volumes massivos de texto pra gerar e compreender linguagem natural. Exemplos: GPT-4 (OpenAI), Claude (Anthropic), Gemini (Google), Llama (Meta). É a base técnica de agentes de IA conversacional modernos.
RAG (Retrieval-Augmented Generation)
RAG (Retrieval-Augmented Generation) é uma arquitetura de IA que combina busca semântica em base de conhecimento com geração via LLM. O LLM consulta sua documentação real antes de responder, eliminando alucinação e mantendo respostas atualizadas sem retreinar o modelo.
Embedding
Embedding é a representação de texto, imagem ou áudio como vetor numérico de alta dimensão (768-3.072 valores). Permite comparar significado semanticamente — frases parecidas ficam próximas no espaço vetorial. É a base de busca semântica, RAG e recomendação por IA.
Vector Database
Vector database é um banco de dados especializado em armazenar e buscar embeddings vetoriais com latência baixa. Suporta busca por similaridade (k-NN) em milhões de vetores em milissegundos. Stack típico: Pinecone, Weaviate, Qdrant ou pgvector (extensão PostgreSQL).
Function Calling
Function calling é a capacidade do LLM de pedir execução de funções concretas — buscar agenda, criar ticket, enviar e-mail — em vez de só gerar texto. O modelo retorna JSON com nome da função e parâmetros, sua aplicação executa e devolve o resultado pro LLM continuar. Base técnica de agentes que executam ações reais.
Token
Token é a unidade mínima de processamento de um LLM — geralmente um pedaço de palavra. Português brasileiro usa ~1,3 tokens por palavra em média. APIs de LLM cobram por token (input + output), tipicamente US$ 0,01-0,15 por 1.000 tokens. Entender token é entender custo e latência de IA.