GetBetterPrompts
InícioTextoImagemVídeoHumanizar
Guias
  • Início
  • Texto
  • Imagem
  • Vídeo
  • Humanizar
  • Guias
GetBetterPrompts
Política de privacidadeTermos de serviçoPolítica de cookies

GetBetterPrompts. Prompts estruturados em segundos. Grátis. Sem registro, sem pagamentos.

contact@getbetterprompts.com

Guias de Prompts IA

Como escrever prompts melhores para IA

Saber escrever um bom prompt é a habilidade mais valiosa que você pode desenvolver ao trabalhar com IA. Um prompt claro e estruturado transforma uma resposta genérica em algo preciso e útil. Este guia traz um framework concreto que você pode aplicar a qualquer modelo e qualquer tarefa, agora mesmo.

Conteúdo

  1. 1.O que faz um prompt ser bom
  2. 2.O framework papel-tarefa-formato
  3. 3.Uma tarefa por prompt
  4. 4.Restrições e listas de exclusão
  5. 5.Exemplos e few-shot prompting
  6. 6.Teste e itere seus prompts
1

O que faz um prompt ser bom

Um bom prompt elimina ambiguidade. O modelo não sabe qual é o seu contexto, quem é seu público ou quais são seus padrões de qualidade, a menos que você explique tudo isso. Entradas vagas como "escreva um e-mail pra mim" obrigam o modelo a chutar. E ele vai errar quase sempre.

Prompts fortes compartilham três características: são específicos sobre o resultado esperado, fornecem o contexto necessário e definem restrições de formato ou tamanho. O guia de prompt engineering da OpenAI chama isso de "escrever instruções claras", e é a técnica mais eficaz que eles recomendam.

Compare estes dois prompts. Ruim: "Resuma este artigo." Melhor: "Resuma este artigo em três tópicos para um gerente de produto que não leu o texto. Cada tópico deve ter no máximo 20 palavras." A segunda versão diz ao modelo o que produzir, para quem e com qual tamanho. Essa especificidade separa um resultado útil de um texto genérico.

Se você só levar uma lição deste guia, que seja esta: cada informação que você omite é uma decisão que o modelo toma por você. Às vezes isso funciona. Na maioria das vezes, não.


2

O framework papel-tarefa-formato

A estrutura mais simples que gera bons resultados de forma consistente tem três partes: Papel, Tarefa e Formato. Atribua um papel à IA ("Você é um copywriter sênior"), descreva a tarefa ("Escreva um título de landing page para um app de finanças voltado a universitários") e defina o formato ("Me dê cinco opções com menos de 10 palavras cada").

Esse framework funciona porque replica como você passaria um briefing a um colega. Você não daria um projeto a alguém sem explicar o papel esperado, o que precisa e como quer a entrega. O guia de prompt engineering da Anthropic recomenda atribuir um papel como uma das primeiras técnicas a testar, porque isso ancora o tom e o nível de expertise do modelo.

Aqui vai um template que você pode copiar:

Papel: Você é um [cargo] com experiência em [área].
Tarefa: [Verbo de ação] + [o quê] + [para quem ou por quê].
Formato: Responda como [tópicos / tabela / JSON / parágrafo]. Máximo de [tamanho].

Você não precisa das três partes em todo prompt, mas começar por aqui dá uma base confiável. Quando o resultado estiver perto do desejado, ajuste cada parte individualmente.


3

Uma tarefa por prompt

Enfiar várias tarefas em um único prompt é o caminho mais rápido para resultados mediocres em todas elas. Quando você pede "pesquise concorrentes, depois escreva um posicionamento, depois crie três títulos de anúncio", cada subtarefa recebe menos atenção do que deveria.

Quebre trabalhos complexos em uma cadeia de prompts focados. Primeiro, peça a pesquisa. Revise o resultado. Depois alimente os dados relevantes em um segundo prompt para o posicionamento. Use esse posicionamento em um terceiro prompt para os títulos. Cada etapa se constrói sobre o resultado verificado da anterior.

Essa abordagem tem um benefício prático além da qualidade: fica mais fácil fazer debug. Se os títulos saíram ruins, você pode rastrear o problema até o posicionamento ou a pesquisa sem rodar tudo de novo. O guia de prompts do Google Gemini também recomenda dividir tarefas complexas, apontando que prompts mais simples produzem resultados mais previsíveis.

Uma regra prática: se o seu prompt contém as palavras "depois" ou "também" mais de uma vez, provavelmente está fazendo coisa demais. Divida.


4

Restrições e listas de exclusão

Dizer ao modelo o que não fazer é tão importante quanto dizer o que fazer. Sem restrições, você vai receber o comportamento padrão: parágrafos longos, frases genéricas e qualificadores desnecessários.

Restrições podem cobrir tamanho ("menos de 200 palavras"), tom ("sem jargão, escreva para alguém de 15 anos"), estrutura ("use passos numerados, não parágrafos") ou conteúdo ("não mencione nomes de concorrentes"). Listas de exclusão funcionam bem para problemas recorrentes. Se o modelo insiste em adicionar avisos legais que você não quer, coloque "Não inclua disclaimers ou ressalvas" no prompt.

O guia da Anthropic sugere usar restrições explícitas para reduzir alucinações, principalmente quando você pede ao modelo para citar fontes ou se limitar a dados fornecidos. Uma restrição como "Use apenas informações do documento acima. Se a resposta não estiver no documento, diga isso." melhora a precisão factual de forma expressiva.

Monte sua própria biblioteca de restrições que resolvam suas frustrações mais frequentes. Com o tempo, você terá um kit de fragmentos reutilizáveis que economizam tempo de edição em cada geração.


5

Exemplos e few-shot prompting

Mostrar ao modelo o que você quer costuma ser mais eficaz do que descrever. Essa técnica se chama "few-shot prompting" e funciona incluindo um ou mais exemplos do par entrada-saída desejado direto no prompt.

Digamos que você precisa extrair dados estruturados de texto livre. Em vez de escrever uma descrição longa do esquema de saída, cole um exemplo: "Entrada: 'João Silva, CEO, entrou em março de 2019.' Saída: { nome: 'João Silva', cargo: 'CEO', data_inicio: '2019-03' }." O modelo capta o padrão e aplica em novas entradas com alta consistência.

O guia da OpenAI recomenda exemplos few-shot como uma das formas mais confiáveis de direcionar formato e estilo da saída. Até um único exemplo (one-shot) pode melhorar bastante a consistência comparado a um prompt sem exemplos (zero-shot).

Na hora de escolher exemplos, selecione os que representem casos de borda, não apenas o caminho fácil. Se seus dados às vezes têm campos vazios, mostre um exemplo com campo vazio para que o modelo saiba como lidar com isso. Dois ou três exemplos bem escolhidos vencem dez genéricos.


6

Teste e itere seus prompts

Seu primeiro prompt é um rascunho, não um produto final. Trate a escrita de prompts como código: escreva, teste com algumas entradas, revise a saída e corrija. A maioria das pessoas para na primeira tentativa e culpa o modelo quando o resultado não é bom.

Um ciclo de iteração simples funciona assim: (1) Rode o prompt. (2) Identifique a maior diferença entre o que você recebeu e o que queria. (3) Adicione uma restrição, exemplo ou esclarecimento que resolva essa diferença. (4) Rode de novo. Dois ou três ciclos normalmente levam a um resultado de qualidade profissional.

Mantenha um registro de prompts. Quando encontrar um que funciona de forma confiável, salve em algum lugar acessível. Anote a tarefa, o modelo usado e o que fez funcionar. Isso evita reinventar prompts que você já resolveu.

O guia de prompts do Google Gemini recomenda testar o mesmo prompt com variações leves de redação para verificar estabilidade. Se pequenas mudanças de frase geram resultados muito diferentes, seu prompt é frágil e precisa de mais estrutura. Consistência entre rodadas é o teste real de um prompt bem escrito.

Fontes

  • Guia de Prompt Engineering da OpenAI
  • Guia de Prompt Engineering da Anthropic
  • Guia de Prompts do Google Gemini

Guias relacionados

  • Guia de prompts de imagem IA: dicas e estilosLer guia
  • Como usar prompts no Gemini (texto, imagem)Ler guia
  • Guia de prompts de vídeo IA: Sora, Veo 3 e RunwayLer guia
Experimente o gerador de prompts grátis