{"id":2174,"date":"2025-09-10T09:30:00","date_gmt":"2025-09-10T09:30:00","guid":{"rendered":"https:\/\/mugnos-it.com\/?p=2174"},"modified":"2025-09-03T12:49:11","modified_gmt":"2025-09-03T12:49:11","slug":"o-segredo-nao-ta-so-em-qual-llm-usar-ja-ouviu-falar-em-mcp","status":"publish","type":"post","link":"https:\/\/mugnos-it.com\/pt\/o-segredo-nao-ta-so-em-qual-llm-usar-ja-ouviu-falar-em-mcp\/","title":{"rendered":"O Segredo N\u00e3o T\u00e1 S\u00f3 em qual LLM usar.                    J\u00e1 Ouviu Falar em MCP?"},"content":{"rendered":"<div data-elementor-type=\"wp-post\" data-elementor-id=\"2174\" class=\"elementor elementor-2174\" data-elementor-post-type=\"post\">\n\t\t\t\t<div class=\"elementor-element elementor-element-5f144c68 e-flex e-con-boxed e-con e-parent\" data-id=\"5f144c68\" data-element_type=\"container\">\n\t\t\t\t\t<div class=\"e-con-inner\">\n\t\t\t\t<div class=\"elementor-element elementor-element-32a5d6a6 elementor-widget elementor-widget-text-editor\" data-id=\"32a5d6a6\" data-element_type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t\n<p><\/p>\n\n\n\n<p>Fala, pessoal! \ud83d\udc4b<\/p>\n\n\n\n<p>Quem nunca foi com muita sede ao pote, abriu aquele seu LLM favorito (seja GPT, Claude, Gemini, etc), mandou um prompt caprichado e\u2026 a resposta veio cheia de lingui\u00e7a?<\/p>\n\n\n\n<p>Tipo aquelas respostas que fazem parecer que a IA entendeu, mas no fundo ela s\u00f3 ficou tentando te enrolar com um papinho gen\u00e9rico e, quando voc\u00ea olha com aten\u00e7\u00e3o, percebe: <em>&#8220;isso aqui n\u00e3o t\u00e1 certo n\u00e3o&#8230;&#8221;<\/em><\/p>\n\n\n\n<p>Pior: j\u00e1 pegou resposta misturando coisas? Voc\u00ea pede algo sobre Load Balancer da AWS e vem resposta falando de NGINX, GCP e ainda insinua que aquilo \u00e9 recurso nativo da AWS. A\u00ed come\u00e7a o bug mental: ser\u00e1 que eu perdi alguma feature nova ou ser\u00e1 que a IA alucinou? \ud83d\ude05<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Prompts sem contexto = resposta sem precis\u00e3o<\/h2>\n\n\n\n<p>N\u00e3o \u00e9 s\u00f3 sobre produtividade. Quando buscamos ajuda de uma LLM, muitas vezes \u00e9 porque n\u00e3o dominamos o assunto completamente. A gente quer reduzir o esfor\u00e7o cognitivo, acelerar o desenvolvimento ou at\u00e9 validar se estamos indo pelo caminho certo. S\u00f3 que sem contexto, n\u00e3o tem milagre.<\/p>\n\n\n\n<p>O prompt pode at\u00e9 estar bem escrito, mas se ele n\u00e3o for enriquecido com boas pr\u00e1ticas, padr\u00f5es e contexto do que voc\u00ea quer, a resposta vai ser&#8230; mediana.<\/p>\n\n\n\n<p>E \u00e9 aqui que entra o MCP.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Mas afinal, o que \u00e9 MCP?<\/h2>\n\n\n\n<p><strong>MCP<\/strong> vem de <strong>Model Context Protocol<\/strong>. \u00c9 um protocolo simples, mas poderoso, que permite adicionar contexto <strong>estruturado<\/strong> ao seu prompt. Sabe aquele \u201cjeitinho\u201d de deixar a IA mais esperta? MCP \u00e9 exatamente isso \u2014 s\u00f3 que no modo turbo.<\/p>\n\n\n\n<p>Imagina o seguinte: voc\u00ea quer criar uma infraestrutura na AWS com Terraform. Se voc\u00ea jogar um \u201ccria a\u00ed uma EC2 com boa pr\u00e1tica\u201d direto pra LLM, ela vai tentar te ajudar\u2026 mas baseada no que ela foi treinada meses (ou anos) atr\u00e1s.<\/p>\n\n\n\n<p>Agora, se voc\u00ea conecta seu prompt a um <strong>MCP Server<\/strong>, por exemplo o da AWS + Terraform, ele automaticamente alimenta seu contexto com as melhores pr\u00e1ticas atualizadas \u2014 direto da fonte. Ou seja: voc\u00ea melhora a qualidade da pergunta sem nem precisar conhecer tudo daquilo.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">E onde isso roda?<\/h2>\n\n\n\n<p>A beleza \u00e9 que o MCP Server roda como um container local na sua m\u00e1quina. Ele se integra com seu ambiente de desenvolvimento (tipo VS Code ou Cursor) e fica l\u00e1, sempre dispon\u00edvel pra enriquecer seus prompts, seja em modo \u201cpergunta\u201d ou modo \u201cagente\u201d (onde ele realmente executa coisas no seu ambiente).<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Dois exemplos que voc\u00ea precisa conhecer:<\/h3>\n\n\n\n<p>\ud83d\udd39 <strong>MCP Server da AWS<\/strong> \u2013 Ideal pra quem trabalha com servi\u00e7os como EC2, DynamoDB, Cost Explorer, etc. Ele j\u00e1 vem com boas pr\u00e1ticas incorporadas direto da AWS Labs e sabe gerar c\u00f3digo, comandos, estrat\u00e9gias e at\u00e9 recomenda\u00e7\u00f5es atualizadas. (Saiba mais em : <a href=\"https:\/\/github.com\/awslabs\/mcp\">https:\/\/github.com\/awslabs\/mcp<\/a>)<\/p>\n\n\n\n<p>\ud83d\udd39 <strong>MCP Server do Terraform<\/strong> \u2013 Ele entende como montar providers, configura\u00e7\u00f5es de m\u00f3dulos, e at\u00e9 aplicar pol\u00edticas baseadas em pr\u00e1ticas recomendadas. Tem inclusive vers\u00f5es da Hashicorp e da AWS Labs \u2014 cada uma com ferramentas diferentes. (Saiba mais em : <a href=\"https:\/\/github.com\/hashicorp\/terraform-mcp-server\">https:\/\/github.com\/hashicorp\/terraform-mcp-server<\/a>)<\/p>\n\n\n\n<p>Voc\u00ea pode instalar direto no VS Code, inicializar via Docker e come\u00e7ar a usar com ferramentas como o Copilot, Cline, Amazon Q integrando tudo em segundos.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Por que isso importa tanto?<\/h2>\n\n\n\n<p>Porque a qualidade do output da IA est\u00e1 diretamente ligada \u00e0 qualidade do seu input \u2014 e nem sempre temos tempo ou conhecimento pra escrever o melhor prompt poss\u00edvel.<\/p>\n\n\n\n<p>MCP ajuda a preencher essas lacunas. Ele n\u00e3o substitui sua expertise, mas te d\u00e1 um contexto mais robusto pra trabalhar \u2014 seja pra quem est\u00e1 aprendendo ou pra quem quer acelerar sem abrir m\u00e3o da qualidade.<\/p>\n\n\n\n<p>Inclusive, tem aluno l\u00e1 na Comunidade de Arquitetura Descomplicada (CAD) que criou uma arquitetura inteira do zero usando MCP, mesmo sem nunca ter implementado na pr\u00e1tica. O cara sabia o conceito, plugou os MCPs certos\u2026 e o resto foi s\u00f3 pedir.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Conclus\u00e3o<\/h2>\n\n\n\n<p>A pr\u00f3xima vez que voc\u00ea abrir seu LLM favorito e pensar \u201cser\u00e1 que tem como melhorar essa resposta?\u201d, lembra do MCP. N\u00e3o \u00e9 s\u00f3 sobre saber perguntar \u2014 \u00e9 sobre dar contexto para receber respostas de verdade.<\/p>\n\n\n\n<p>Se voc\u00ea ainda n\u00e3o testou MCP, essa pode ser a virada de chave na sua jornada com IA. \ud83d\ude80<\/p>\n\n\n\n<p>Abracos.<\/p>\n\n\n\n<p>Douglas Mugnos<\/p>\n\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t<div class=\"elementor-element elementor-element-f43c647 e-flex e-con-boxed e-con e-parent\" data-id=\"f43c647\" data-element_type=\"container\">\n\t\t\t\t\t<div class=\"e-con-inner\">\n\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<\/div>","protected":false},"excerpt":{"rendered":"<p>Fala, pessoal! \ud83d\udc4b Quem nunca foi com muita sede ao pote, abriu aquele seu LLM favorito (seja GPT, Claude, Gemini, etc), mandou um prompt caprichado e\u2026 a resposta veio cheia de lingui\u00e7a? Tipo aquelas respostas que fazem parecer que a IA entendeu, mas no fundo ela s\u00f3 ficou tentando te enrolar com um papinho gen\u00e9rico [&hellip;]<\/p>","protected":false},"author":3,"featured_media":2175,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-2174","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-uncategorized"],"aioseo_notices":[],"jetpack_featured_media_url":"https:\/\/mugnos-it.com\/wp-content\/uploads\/2025\/09\/ChatGPT-Image-Aug-30-2025-09_16_31-AM.png","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/mugnos-it.com\/pt\/wp-json\/wp\/v2\/posts\/2174","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/mugnos-it.com\/pt\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/mugnos-it.com\/pt\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/mugnos-it.com\/pt\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/mugnos-it.com\/pt\/wp-json\/wp\/v2\/comments?post=2174"}],"version-history":[{"count":4,"href":"https:\/\/mugnos-it.com\/pt\/wp-json\/wp\/v2\/posts\/2174\/revisions"}],"predecessor-version":[{"id":2179,"href":"https:\/\/mugnos-it.com\/pt\/wp-json\/wp\/v2\/posts\/2174\/revisions\/2179"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/mugnos-it.com\/pt\/wp-json\/wp\/v2\/media\/2175"}],"wp:attachment":[{"href":"https:\/\/mugnos-it.com\/pt\/wp-json\/wp\/v2\/media?parent=2174"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/mugnos-it.com\/pt\/wp-json\/wp\/v2\/categories?post=2174"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/mugnos-it.com\/pt\/wp-json\/wp\/v2\/tags?post=2174"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}