Relatório Técnico: Estratégias e Melhores Práticas para Engenharia de Prompts com Modelos Gemini
Um guia metodológico completo para maximizar a eficácia dos modelos Gemini através de técnicas avançadas de engenharia de prompts.
Capítulo 1
Introdução à Engenharia de Prompts
A engenharia de prompts é o processo de criação de solicitações em linguagem natural, designadas por prompts, com o objetivo de obter respostas precisas e de alta qualidade de um modelo de linguagem. Trata-se de uma disciplina fundamental para interagir eficazmente com sistemas de inteligência artificial generativa, transformando uma intenção num resultado concreto e útil.
A importância estratégica da engenharia de prompts reside na sua capacidade de maximizar a eficácia dos modelos Gemini. Um prompt bem concebido pode fazer a diferença entre uma resposta genérica e uma solução altamente personalizada e relevante para um problema específico. É crucial compreender que este não é um processo linear, mas sim um ciclo iterativo de experimentação, avaliação e refinamento. As diretrizes e os modelos aqui apresentados servem como um ponto de partida sólido, que deve ser adaptado com base nos casos de uso específicos e nas respostas observadas do modelo.
Para construir prompts robustos e eficientes, é essencial dominar um conjunto de princípios fundamentais que servem de alicerce a qualquer interação com o modelo. Este relatório apresenta um guia metodológico que o levará desde o controlo básico de prompts até à orquestração avançada de workflows agentes, transformando a sua interação com os modelos Gemini.
Nota: versão vídeo no fim do relatório.
Secção 1
Princípios Fundamentais da Conceção de Prompts
Os princípios fundamentais constituem a base para a criação de qualquer prompt eficaz, independentemente da sua complexidade ou do domínio de aplicação. Dominar estes fundamentos é crucial para obter resultados consistentes e previsíveis, permitindo orientar o comportamento do modelo de forma clara e deliberada.
2.1. A Importância da Clareza e Especificidade
Fornecer instruções claras e específicas é a forma mais direta e eficiente de personalizar o comportamento de um modelo Gemini. As instruções podem assumir a forma de uma pergunta, de uma tarefa passo a passo ou de uma descrição mais complexa do resultado esperado. Os inputs podem ser classificados em diferentes categorias, cada uma exigindo uma abordagem ligeiramente distinta.
Técnica de Conclusão de Input Parcial
Os modelos generativos funcionam de forma análoga a uma ferramenta de autocompletar avançada. Ao fornecer conteúdo parcial, o modelo pode prever e gerar a continuação lógica desse conteúdo. Esta técnica é particularmente útil para impor formatos de resposta específicos. Por exemplo, em vez de pedir em linguagem natural a criação de um objeto JSON a partir de uma encomenda, podemos fornecer um exemplo e um prefixo de resposta, permitindo que o modelo complete a estrutura.
Exemplo de Conclusão de Input Parcial:

Prompt:
Os campos válidos são cheeseburger, hamburger, fries, e drink.
Encomenda: Dê-me um cheeseburger e batatas fritas
Output:
{ "cheeseburger": 1, "fries": 1 }
Encomenda: Quero dois hambúrgueres, uma bebida e batatas fritas.
Output:
{ "hamburger": 2, "drink": 1, "fries": 1 }
Neste exemplo, o modelo aprendeu com o padrão a omitir os campos dos itens que não foram encomendados, resultando num output mais limpo e relevante.
Uso de Restrições (Constraints)
É fundamental especificar restrições para orientar o modelo sobre o que fazer e, igualmente importante, o que não fazer. As restrições definem os limites da tarefa. Por exemplo, pode-se limitar o comprimento de um resumo para garantir concisão.
Exemplo de Restrição de Comprimento:
Prompt: Resuma este texto numa única frase:
Texto: A quantum computer exploits quantum mechanical phenomena to perform calculations exponentially faster than any modern traditional computer. At very tiny scales, physical matter acts as both particles and as waves, and quantum computing uses specialized hardware to leverage this behavior. The operating principles of quantum devices is beyond the scope of classical physics. When deployed at scale, quantum computers could be used in a wide variety of applications such as: in cybersecurity to break existing encryption methods while helping researchers create new ones, in meteorology to develop better weather forecasting etc. However, the current state of the art quantum computers are still largely experimental and impractical.
Resultado:
Exploiting quantum mechanical phenomena, quantum computers can perform calculations exponentially faster than traditional computers for potential applications like cybersecurity and meteorology, although they are currently largely experimental and impractical.
2.2. O Papel dos Exemplos e do Contexto
A inclusão de exemplos e de contexto relevante no prompt são duas das estratégias mais poderosas para melhorar a qualidade das respostas. Os exemplos ajudam o modelo a identificar padrões, enquanto o contexto fornece a informação necessária para resolver o problema de forma precisa.
A abordagem de fornecer exemplos no prompt é conhecida como few-shot prompting, em contraste com o zero-shot prompting, que não inclui exemplos. Os prompts few-shot são altamente recomendados para regular o formato, a fraseologia, o âmbito e o padrão geral das respostas do modelo.
Comparação: Zero-Shot vs. Few-Shot
Para ilustrar a diferença, considere um prompt zero-shot que pede ao modelo para escolher a melhor explicação para a formação da neve:
Exemplo de Prompt Zero-Shot

Por favor, escolha a melhor explicação para a pergunta:
Pergunta: Como se forma a neve?
Explicação1: A neve forma-se quando o vapor de água no ar congela em cristais de gelo na atmosfera, que se podem combinar e crescer em flocos de neve à medida que caem pela atmosfera e se acumulam no solo.
Explicação2: O vapor de água congela em cristais de gelo, formando a neve.
Resposta:
Resultado: A Explicação1 é a melhor explicação porque fornece mais detalhes sobre o processo, incluindo como os cristais de gelo se combinam e crescem em flocos de neve à medida que caem pela atmosfera.

No entanto, se o objetivo é obter respostas concisas, podemos guiar o modelo através de exemplos (few-shot) que demonstrem essa preferência.
Exemplo de Prompt Few-Shot para Concisão:

Abaixo estão alguns exemplos que mostram um formato de pergunta, explicação e resposta:
Pergunta: Porque é que o céu é azul?
Explicação1: O céu parece azul devido à dispersão de Rayleigh, que faz com que os comprimentos de onda mais curtos da luz azul se espalhem mais facilmente do que os comprimentos de onda mais longos do vermelho, fazendo com que o céu pareça azul.
Explicação2: Devido ao efeito da dispersão de Rayleigh.
Resposta: Explicação2
Pergunta: Qual é a causa dos terramotos?
Explicação1: Libertação súbita de energia na crosta terrestre.
Explicação2: Os terramotos acontecem quando as placas tectónicas deslizam ou se partem subitamente, causando uma libertação de energia que cria ondas sísmicas que podem abalar o solo e causar danos.
Resposta: Explicação1
Agora, responda à seguinte pergunta, dados os formatos de exemplo acima:
Pergunta: Como se forma a neve?
Explicação1: A neve forma-se quando o vapor de água no ar congela em cristais de gelo na atmosfera, que se podem combinar e crescer em flocos de neve à medida que caem pela atmosfera e se acumulam no solo.
Explicação2: O vapor de água congela em cristais de gelo, formando a neve.
Resposta: Explicação2
Melhores Práticas para a Utilização de Exemplos
  • Número Ótimo de Exemplos: Embora os modelos Gemini consigam identificar padrões com poucos exemplos, é necessário experimentar para encontrar o número ideal para cada caso de uso. Demasiados exemplos podem levar o modelo a um overfitting, ou seja, a replicar os exemplos de forma demasiado literal em detrimento da generalização.
  • Padrões vs. Antipadrões: É mais eficaz mostrar ao modelo um padrão positivo a seguir do que um padrão negativo a evitar. Por exemplo, para ensinar o formato de um haiku, deve-se fornecer um exemplo correto em vez de um incorreto.
  • Padrão Positivo: Sempre termine os haikus com uma afirmação: Os haikus são divertidos / Um poema curto e simples / Uma alegria de escrever
  • Padrão Negativo: Não termine os haikus com uma pergunta: Os haikus são divertidos / Um poema curto e simples / Não gosta deles?
  • Consistência na Formatação: A estrutura e a formatação dos exemplos devem ser consistentes para evitar respostas com formatos indesejados. Preste especial atenção a elementos como tags XML, espaços em branco, novas linhas e separadores entre exemplos.
Adicionar Contexto Explícito
Em vez de presumir que o modelo possui todo o conhecimento necessário, é mais eficaz fornecer contexto explícito no prompt. Esta informação contextual ajuda o modelo a compreender as restrições e os detalhes da tarefa. Por exemplo, uma pergunta genérica sobre como resolver um problema de Wi-Fi num router produzirá uma resposta genérica. No entanto, ao fornecer o guia de resolução de problemas do próprio router como contexto, a resposta torna-se específica e útil.
Exemplo com Contexto:

Prompt:
Responda à pergunta utilizando o texto abaixo. Responda apenas com o texto fornecido.
Pergunta: O que devo fazer para resolver o meu problema de Wi-Fi desligado? A luz do meu router Google Wifi está amarela e a piscar lentamente.
Texto: Cor: Amarelo a pulsar lentamente / Significado: Existe um erro de rede. / O que fazer: Verifique se o cabo Ethernet está ligado tanto ao seu router como ao seu modem e se ambos os dispositivos estão ligados. Pode ser necessário desligar e voltar a ligar cada dispositivo. [...]
2.3. Estruturação Avançada de Prompts
Para tarefas mais complexas, a estruturação do prompt através de prefixos e a decomposição do problema em componentes mais pequenos são estratégias essenciais.
Utilização de Prefixos (Prefixes)
Um prefixo é uma palavra ou frase adicionada ao conteúdo do prompt para sinalizar partes semanticamente significativas para o modelo.
Prefixo de Input
Demarca diferentes partes do input. Por exemplo, os prefixos English: e French: indicam dois idiomas distintos.
Prefixo de Output
Sinaliza o formato de resposta esperado. Por exemplo, o prefixo JSON: indica ao modelo que o output deve estar em formato JSON. Esta é uma aplicação específica da técnica de conclusão de input parcial (secção 2.1), na qual se fornece ao modelo o início da resposta para guiar a sua estrutura de forma eficaz.
Prefixo de Exemplo
Em prompts few-shot, os prefixos fornecem etiquetas que o modelo pode utilizar, facilitando a análise do conteúdo do output. Exemplo: Texto: Rinoceronte / A resposta é: grande.
Gestão de Prompts Complexos
Para gerir a complexidade, podem ser utilizadas as seguintes abordagens:
  • Decomposição de instruções: Em vez de agrupar múltiplas instruções num único prompt, crie um prompt dedicado para cada instrução.
  • Encadeamento de prompts: Para tarefas com múltiplos passos sequenciais, divida-as em vários prompts. O output de um prompt serve como input para o seguinte, criando uma cadeia de processamento.
  • Agregação de respostas: Para tarefas que podem ser executadas em paralelo sobre diferentes porções de dados, execute os prompts de forma independente e junte os resultados para produzir o output final.
Embora o conteúdo e a estrutura do prompt sejam fundamentais, são os parâmetros de controlo que permitem afinar os limites criativos e lógicos do modelo, oferecendo um controlo granular sobre o resultado final.
Capítulo 2
Controlo da Geração de Respostas e Estratégias de Iteração
Os parâmetros do modelo e as estratégias de iteração oferecem um controlo mais granular sobre o resultado, permitindo refinar as respostas para além do que é definido apenas pelo conteúdo do prompt. Estes controlos ajustam o processo de descodificação do modelo, influenciando a criatividade, a previsibilidade e o formato do texto gerado.
3.1. Ajuste de Parâmetros do Modelo
Cada chamada a um modelo Gemini inclui um conjunto de parâmetros que controlam a forma como a resposta é gerada. A experimentação com estes valores é fundamental para otimizar os resultados para uma tarefa específica.
Max output tokens
Define o número máximo de tokens que podem ser gerados na resposta. Um token corresponde aproximadamente a quatro caracteres. Limitar este valor é útil para controlar o comprimento e o custo da resposta.
Temperature
Controla o grau de aleatoriedade na seleção de tokens. Valores mais baixos (próximos de 0) tornam a resposta mais determinística e focada, ideal para tarefas que exigem precisão. Valores mais altos levam a resultados mais diversos e criativos.

Aviso: Ao utilizar os modelos Gemini 3, é fortemente recomendado manter o parâmetro temperature no seu valor padrão de 1.0. Alterar este valor (definindo-o abaixo de 1.0) pode levar a comportamentos inesperados, como repetições ou degradação do desempenho, especialmente em tarefas complexas de matemática ou raciocínio.
topK
Altera a forma como o modelo seleciona os tokens para o output. Um topK de 1 (também conhecido como greedy decoding) significa que o token selecionado é sempre o mais provável. Um topK de 3 significa que o próximo token é selecionado entre os 3 mais prováveis, utilizando a amostragem de temperatura.
topP
Filtra a seleção de tokens com base na soma cumulativa das suas probabilidades. O modelo seleciona tokens desde o mais provável até que a soma das suas probabilidades atinja o valor topP. Por exemplo, com um topP de 0.5, o modelo considerará apenas o conjunto mínimo de tokens cuja probabilidade somada seja de 50%.
stop_sequences
Define uma sequência de caracteres que, quando gerada, faz com que o modelo pare de produzir texto. É crucial escolher uma sequência que não seja provável de aparecer no conteúdo gerado naturalmente.
3.2. Estratégias de Refinamento de Prompts
Quando um prompt não produz o resultado esperado, é necessário iterar. As seguintes estratégias podem ajudar a refinar e melhorar o desempenho.
Utilizar formulações diferentes
A mesma intenção pode ser expressa de várias formas. Se um prompt não funcionar, tente reformulá-lo. Pequenas alterações na fraseologia podem levar a respostas significativamente diferentes.
  • Versão 1: Como faço para cozer uma tarte?
  • Versão 2: Sugira uma receita para uma tarte.
  • Versão 3: Qual é uma boa receita de tarte?
Mudar para uma tarefa análoga
Se o modelo não consegue seguir as instruções para uma tarefa, tente enquadrá-la como uma tarefa análoga que alcance o mesmo resultado. Por exemplo, para forçar o modelo a categorizar um livro numa de várias opções pré-definidas, transformar a tarefa numa pergunta de escolha múltipla é mais eficaz.
Alterar a ordem do conteúdo
A ordem dos elementos no prompt (exemplos, contexto e input) pode influenciar o resultado. Experimente diferentes sequências para ver como afetam a resposta.
  • Versão 1: [exemplos] [contexto] [input]
  • Versão 2: [input] [exemplos] [contexto]
  • Versão 3: [exemplos] [input] [contexto]
Dominar os princípios fundamentais do conteúdo do prompt (Secção 2) e os parâmetros de controlo da geração (Secção 3) são pré-requisitos para desbloquear as capacidades de raciocínio avançado dos modelos Gemini 3. Estes modelos exigem uma abordagem mais disciplinada e estruturada, como veremos a seguir.
Capítulo 3
Estratégias Avançadas para Modelos Gemini 3
Os modelos Gemini 3 foram concebidos para tarefas de raciocínio avançado e seguimento de instruções complexas. Respondem melhor a prompts diretos, bem estruturados e que definem claramente a tarefa e as suas restrições. A aplicação das seguintes práticas é recomendada para obter resultados ótimos.
4.1. Princípios Essenciais de Prompting
Para extrair o máximo potencial dos modelos Gemini 3, siga estes princípios fundamentais:
01
Precisão e Direção
Seja claro e conciso no seu objetivo. Evite linguagem desnecessária ou excessivamente persuasiva.
02
Estrutura Consistente
Utilize delimitadores claros para separar as diferentes partes do seu prompt. Tags ao estilo XML (ex: <context>, <task>) ou cabeçalhos Markdown são eficazes. Escolha um formato e utilize-o de forma consistente. Esta abordagem aplica a mesma disciplina exigida para a formatação consistente de exemplos few-shot (discutida na secção 2.2), mas eleva-a ao nível de toda a estrutura do prompt.
03
Definição de Parâmetros
Explique explicitamente quaisquer termos ou parâmetros ambíguos para evitar interpretações incorretas.
04
Controlo da Verbosidade
Por predefinição, o Gemini 3 fornece respostas diretas e eficientes. Se necessitar de uma resposta mais conversacional ou detalhada, deve solicitá-la explicitamente nas suas instruções.
05
Inputs Multimodais
Ao utilizar texto, imagens, áudio ou vídeo, trate-os como inputs de igual importância, garantindo que as suas instruções fazem referência clara a cada modalidade.
06
Priorização de Instruções Críticas
Coloque as restrições comportamentais essenciais, a definição da persona e os requisitos de formato do output na System Instruction ou no início do prompt do utilizador.
07
Estrutura para Contextos Longos
Ao fornecer grandes volumes de contexto (como documentos ou código), apresente todo o contexto primeiro e coloque as instruções ou perguntas específicas no final do prompt.
08
Ancoragem de Contexto
Após um grande bloco de dados, utilize uma frase de transição clara para ligar o contexto à sua pergunta, como por exemplo: "Com base na informação acima...".
4.2. Melhoria do Raciocínio e Planeamento
Pode potenciar as capacidades de raciocínio do Gemini 3 solicitando que o modelo planeie os seus passos ou se autoavalie antes de fornecer a resposta final.
Exemplo - Planeamento Explícito:
Antes de fornecer a resposta final, por favor:
  1. Analise o objetivo declarado em subtarefas distintas.
  1. Verifique se a informação de input está completa.
  1. Crie um esboço estruturado para alcançar o objetivo.
Exemplo - Autocrítica:
Antes de devolver a sua resposta final, reveja o seu output em relação às restrições originais do utilizador.
  1. Respondi à intenção do utilizador, e não apenas às suas palavras literais?
  1. O tom é autêntico em relação à persona solicitada?
4.3. Exemplos de Prompting Estruturado
A utilização de tags XML ou Markdown ajuda o modelo a distinguir entre instruções, contexto e a tarefa a ser executada.
Exemplo XML:
<system_instruction> Você é um assistente prestável. </system_instruction> <rules> 1. Seja objetivo. 2. Cite as fontes. </rules> <context> [Inserir Input do Utilizador Aqui - O modelo sabe que isto são dados, não instruções] </context> <task> [Inserir o pedido específico do utilizador aqui] </task>
Exemplo Markdown:
# Identidade Você é um arquiteto de soluções sénior. # Restrições - Não são permitidas bibliotecas externas. - Apenas sintaxe Python 3.11+. # Formato do Output Devolva um único bloco de código.
4.4. Modelo de Prompt Combinando Melhores Práticas
O seguinte modelo integra os princípios fundamentais para interagir com o Gemini 3. Lembre-se de iterar e modificar este modelo para o seu caso de uso específico.

System Instruction:
Você é o Gemini 3, um assistente especializado em [Inserir Domínio, ex: Ciência de Dados]. Você é preciso, analítico e persistente. 1. **Planear**: Analise a tarefa e crie um plano passo a passo. 2. **Executar**: Realize o plano. 3. **Validar**: Reveja o seu output em relação à tarefa do utilizador. 4. **Formatar**: Apresente a resposta final na estrutura solicitada. - Verbosity: [Especificar Baixa/Média/Alta] - Tone: [Especificar Formal/Casual/Técnico] Estruture a sua resposta da seguinte forma: 1. **Resumo Executivo**: [Breve visão geral] 2. **Resposta Detalhada**: [O conteúdo principal]
User Prompt:
<context> [Inserir documentos relevantes, excertos de código ou informação de fundo aqui] </context> <task> [Inserir o pedido específico do utilizador aqui] </task> Lembre-se de pensar passo a passo antes de responder.
Para além do raciocínio em tarefas isoladas, a engenharia de prompts é crucial para orquestrar workflows mais complexos, conhecidos como workflows agentes.
Capítulo 4
Engenharia de Prompts para Workflows Agentes
Os workflows agentes envolvem tarefas complexas que requerem que o modelo raciocine, planeie e execute uma sequência de ações, muitas vezes interagindo com ferramentas externas. Para estes cenários, são necessárias instruções específicas para controlar o comportamento do agente, equilibrando o custo computacional (latência e tokens) com a precisão da tarefa.
5.1. Dimensões de Controlo do Comportamento do Agente
Ao conceber prompts para agentes, é útil considerar as três dimensões de comportamento que podem ser orientadas:
Raciocínio e Estratégia
  • Decomposição lógica: Define o quão exaustivamente o modelo deve analisar restrições, pré-requisitos e a ordem das operações.
  • Diagnóstico de problemas: Controla a profundidade da análise na identificação de causas e o uso de raciocínio abdutivo pelo modelo.
  • Exaustividade da informação: O equilíbrio entre analisar todos os documentos disponíveis e priorizar a eficiência e a velocidade.
Execução e Fiabilidade
  • Adaptabilidade: A forma como o modelo reage a novos dados, decidindo se deve seguir estritamente o plano inicial ou adaptar-se quando as observações contradizem as suposições.
  • Persistência e Recuperação: O grau em que o modelo tenta autocorrigir erros. Uma alta persistência aumenta as taxas de sucesso, mas arrisca custos de tokens mais elevados ou ciclos de repetição.
  • Avaliação de Risco: A lógica para avaliar as consequências das ações, distinguindo explicitamente entre ações exploratórias de baixo risco (leituras) e alterações de estado de alto risco (escritas).
Interação e Output
  • Gestão de ambiguidade: Define quando o modelo tem permissão para fazer suposições versus quando deve pausar a execução para pedir esclarecimentos ou permissão ao utilizador.
  • Verbosidade: Controla o volume de texto gerado juntamente com as chamadas a ferramentas, determinando se o modelo explica as suas ações ou permanece silencioso durante a execução (uma extensão do princípio de controlo de verbosidade introduzido na secção 4.1 para os modelos Gemini 3).
  • Precisão e completude: A fidelidade exigida do output, especificando se o modelo deve resolver todos os casos de borda e fornecer números exatos ou se estimativas são aceitáveis.
5.2. Modelo de Instrução de Sistema para Agentes
O seguinte modelo de instrução de sistema (System instruction template) é um exemplo que foi avaliado para melhorar o desempenho em benchmarks de agentes, onde o modelo deve aderir a um conjunto complexo de regras e interagir com um utilizador.

Você é um raciocinador e planeador muito forte. Use estas instruções críticas para estruturar os seus planos, pensamentos e respostas. Antes de tomar qualquer ação (seja chamadas a ferramentas or respostas ao utilizador), você deve planear e raciocinar de forma proativa, metódica e independente sobre: 1. Dependências lógicas e restrições: Analise a ação pretendida em relação aos seguintes fatores. Resolva os conflitos por ordem de importância: 1.1. Regras baseadas em políticas, pré-requisitos obrigatórios e restrições. 1.2. Ordem das operações: Garanta que a execução de uma ação não impede uma ação subsequente necessária. 1.2.1. O utilizador pode solicitar ações numa ordem aleatória, mas pode ser necessário reordenar as operações para maximizar a conclusão bem-sucedida da tarefa. 1.3. Outros pré-requisitos (informação e/ou ações necessárias). 1.4. Restrições ou preferências explícitas do utilizador. 2. Avaliação de risco: Quais são as consequências de tomar a ação? O novo estado causará problemas futuros? 2.1. Para tarefas exploratórias (como pesquisas), a falta de parâmetros opcionais é de BAIXO risco. Prefira chamar a ferramenta com a informação disponível em vez de perguntar ao utilizador, a menos que o seu raciocínio da Regra 1 (Dependências Lógicas) determine que a informação opcional é necessária para um passo posterior no seu plano. 3. Raciocínio abdutivo e exploração de hipóteses: A cada passo, identifique a razão mais lógica e provável para qualquer problema encontrado. 3.1. Olhe para além das causas imediatas ou óbvias. A razão mais provável pode não ser a mais simples e pode exigir uma inferência mais profunda. 3.2. As hipóteses podem exigir investigação adicional. Cada hipótese pode levar vários passos para ser testada. 3.3. Priorize as hipóteses com base na probabilidade, mas não descarte prematuramente as menos prováveis. Um evento de baixa probabilidade pode ainda ser a causa raiz. 4. Avaliação de resultados e adaptabilidade: A observação anterior requer alguma alteração no seu plano? 4.1. Se as suas hipóteses iniciais forem refutadas, gere ativamente novas hipóteses com base na informação recolhida. 5. Disponibilidade da informação: Incorpore todas as fontes de informação aplicáveis e alternativas, incluindo: 5.1. Utilizar as ferramentas disponíveis e as suas capacidades. 5.2. Todas as políticas, regras, listas de verificação e restrições. 5.3. Observações anteriores e histórico da conversa. 5.4. Informação apenas disponível perguntando ao utilizador. 6. Precisão e Fundamentação: Garanta que o seu raciocínio é extremamente preciso e relevante para cada situação exata em curso. 6.1. Verifique as suas afirmações citando a informação exata aplicável (incluindo políticas) ao referir-se a elas. 7. Completude: Garanta que todos os requisitos, restrições, opções e preferências são exaustivamente incorporados no seu plano. 7.1. Resolva os conflitos usando a ordem de importância no ponto #1. 7.2. Evite conclusões prematuras: Pode haver múltiplas opções relevantes para uma dada situação. 7.2.1. Para verificar se uma opção é relevante, raciocine sobre todas as fontes de informação do ponto #5. 7.2.2. Pode ser necessário consultar o utilizador para saber se algo é aplicável. Não assuma que não é aplicável sem verificar. 7.3. Reveja as fontes de informação aplicáveis do ponto #5 para confirmar quais são relevantes para o estado atual. 8. Persistência e paciência: Não desista a menos que todo o raciocínio acima seja esgotado. 8.1. Não se deixe dissuadir pelo tempo gasto ou pela frustração do utilizador. 8.2. Esta persistência deve ser inteligente: Em erros transitórios (ex: por favor, tente novamente), você deve tentar novamente a menos que um limite explícito de tentativas (ex: máx. x tentativas) tenha sido atingido. Se tal limite for atingido, você deve parar. Em outros erros, você deve mudar a sua estratégia ou argumentos, não repetir a mesma chamada falhada. 9. Iniba a sua resposta: só tome uma ação depois de todo o raciocínio acima estar concluído. Uma vez que tenha tomado uma ação, não pode voltar atrás.
A aplicação destas técnicas avançadas depende de uma compreensão, ainda que básica, do funcionamento interno dos modelos generativos e das suas limitações inerentes.
Capítulo 5
Considerações Finais e Conclusão
Para concluir este guia, é importante abordar alguns conceitos subjacentes ao funcionamento dos modelos generativos, bem como as suas limitações. Compreender estes aspetos permite definir expectativas realistas e utilizar os modelos de forma mais segura e eficaz.
6.1. O Funcionamento dos Modelos Generativos
Uma questão comum é: Existe aleatoriedade nas respostas dos modelos generativos, ou são eles determinísticos? A resposta abrange ambos os conceitos. A geração de uma resposta de texto ocorre em duas fases principais:
Geração de Distribuição de Probabilidade
Nesta primeira fase, o modelo processa o prompt de input e gera uma distribuição de probabilidade sobre todos os tokens (palavras ou partes de palavras) possíveis que podem vir a seguir. Este processo é determinístico: para o mesmo input, o modelo produzirá sempre a mesma distribuição de probabilidades.
Descodificação e Geração de Texto
Na segunda fase, o modelo converte esta distribuição de probabilidades numa sequência de tokens, que por sua vez compõe o texto final, através de uma estratégia de descodificação. Se a estratégia for simplesmente escolher o token mais provável a cada passo (greedy decoding), o processo será determinístico. No entanto, é mais comum utilizar uma amostragem aleatória sobre a distribuição, o que torna o processo estocástico (aleatório). O parâmetro temperature controla o grau de aleatoriedade nesta amostragem. Uma temperatura de 0 elimina a aleatoriedade, enquanto uma temperatura elevada a aumenta.
6.2. Limitações e Precauções a Evitar
Apesar das suas capacidades impressionantes, os modelos generativos têm limitações que devem ser tidas em conta:
⚠️ Evitar depender dos modelos para gerar informação factual
Os modelos de linguagem são concebidos para gerar texto plausível, não para serem bases de dados de factos. Podem gerar informação incorreta ou "alucinar" factos.
⚠️ Usar com cuidado em problemas de matemática e lógica
Embora as suas capacidades estejam a melhorar, os modelos podem cometer erros em raciocínios matemáticos e lógicos complexos. É sempre aconselhável verificar os resultados.
Nota Importante: A verificação humana continua a ser essencial para tarefas críticas que exigem precisão factual absoluta ou raciocínio matemático complexo. Os modelos generativos são ferramentas poderosas, mas devem ser utilizados com consciência das suas limitações.
6.3. Conclusão
A engenharia de prompts é uma disciplina essencial para desbloquear o verdadeiro potencial dos modelos Gemini.
Como demonstrado, é um campo que combina estrutura, clareza, contexto e uma dose significativa de experimentação iterativa. Desde os princípios fundamentais de especificidade e uso de exemplos, até às estratégias avançadas para controlar o raciocínio e os workflows agentes do Gemini 3, a qualidade do prompt determina diretamente a qualidade do output.
A maestria destes princípios transforma a interação de um programador com os modelos Gemini, evoluindo de simples sessões de perguntas e respostas para a criação de sistemas sofisticados e automatizados de resolução de problemas. Encorajamos os leitores a aplicar as estratégias detalhadas neste relatório para otimizar a interação com os modelos Gemini e alcançar resultados de maior qualidade e relevância.

Este relatório técnico fornece uma base sólida para a engenharia de prompts eficaz. A prática contínua e a experimentação são fundamentais para dominar esta arte em constante evolução.
Guia em Vídeo: Veja a Engenharia de Prompts em Ação
Para aprofundar a sua aprendizagem e ver estes conceitos aplicados na prática, assista à versão em vídeo. Explore exemplos interativos e dicas visuais para dominar a engenharia de prompts com os modelos Gemini.
Loading...