ADD ANYTHING HERE OR JUST REMOVE IT…
Blog, GenAI, Inteligência Artificial

Como gerar prompts melhores no console do desenvolvedor

Agora, é possível gerar modelos de prompt prontos para produção no Console da Anthropic.

Descreva o que você deseja alcançar e o Claude usará técnicas de engenharia de prompt, como raciocínio encadeado de pensamentos, para criar um prompt eficaz, preciso e confiável.

Este recurso foi projetado para ajudar usuários que são novos na engenharia de prompt, bem como economizar tempo para engenheiros de prompt experientes.

Melhores resultados tornam-se alcançáveis ao se fornecer ao gerador de prompt informações detalhadas sobre sua tarefa e o formato de saída desejado.

Embora os prompts gerados nem sempre produzam resultados perfeitos, muitas vezes superam os prompts escritos à mão criados por aqueles que são novos na engenharia de prompt. Os modelos de prompt gerados também são editáveis, permitindo que você os ajuste rapidamente para um desempenho ideal.

 

Promovendo as melhores práticas


Os modelos de prompt gerados por este novo recurso fazem uso de muitas das nossas melhores práticas de engenharia de prompt. Uma dessas práticas é a definição de papel, onde Claude é encorajado a assumir as características de um especialista na tarefa escolhida. No nosso exemplo de moderação de conteúdo, a definição do papel (role) se parece com isto:

Você atuará como moderador de conteúdo para classificar transcrições de chat como aprovadas ou rejeitadas com base em uma política de moderação de conteúdo fornecida.

Outra prática é o raciocínio em cadeia de pensamento (chain of thought prompting), no qual Claude tem tempo e espaço para reunir seus pensamentos antes de responder.

Isso permite respostas mais completas e bem fundamentadas a consultas complexas.

Quando solicitado a gerar um prompt para recomendações de produtos com base nas transações anteriores de um cliente, por exemplo, isso é implementado da seguinte forma:

Num <rascunho>, faça um brainstorming de 3 recomendações de produtos diferentes que você poderia fazer a este cliente com base no histórico de transações. Para cada recomendação potencial, forneça uma breve justificativa explicando por que você acha que seria adequada para este cliente.

Além disso, os modelos frequentemente colocam as “variáveis” – campos de entrada onde dados personalizados podem ser inseridos – entre tags XML. Isso segue outra prática recomendada chave ao delinear claramente diferentes partes do prompt, fornecendo uma estrutura clara.

No exemplo abaixo, quando solicitado um prompt que traduza código para Python, vemos que a variável mais longa e ambígua {{CODE}} é marcada por tags XML, enquanto a variável simples {{LANGUAGE}} é posicionada em linha.

Sua tarefa é traduzir um trecho de código de outra linguagem de programação para Python.
Aqui está o código a ser traduzido:
<code> {{CÓDIGO}} </code>
O código está escrito em {{LINGUAGEM}}.

Em alguns casos, você verá Claude escrevendo exemplos de entradas e saídas para se orientar claramente em relação aos tipos de respostas que ele acha que você deseja. Você pode editar esses exemplos para corresponder ao formato de saída almejado.

 

Nos bastidores


O gerador de prompt é baseado em um prompt longo que em si mesmo usa muitas das técnicas já mencionadas. Ele:

  • Contém inúmeros exemplos de descrições de tarefas e modelos de prompt para mostrar ao Claude como ir de uma descrição de tarefa a um modelo de prompt.
  • Incentiva o Claude a planejar a estrutura do modelo que ele produzirá antes de escrever esse modelo, permitindo que o Claude tenha tempo para coletar seus pensamentos.
  • Tem uma “coluna vertebral” forte composta por tags XML que marcam o início e o fim de cada seção, para melhorar a legibilidade.

 

Modelos de prompt como uma ferramenta de avaliação


As variáveis nos modelos que você receberá do gerador de prompts estarão na notação de handlebars, como mostrado no exemplo anterior de moderação de conteúdo:

Aqui está a política que você deve aplicar: <content_policy> {{CONTENT_POLICY}} </content_policy>

Aqui está a transcrição do chat para revisão e classificação: <transcript> {{TRANSCRIPT}} </transcript>

Já neste exemplo, você poderia fazer o upload da sua política de conteúdo e de uma variedade de transcrições de chat diferentes para ver como Claude se comporta.

Esse processo permite garantir que sua aplicação irá responder adequadamente em diversas situações.

 

Engenharia de prompts e modelo Claude 2 da Anthropic com a DNX


Criar novos produtos, ampliar serviços, potencializar análises, melhorar o desempenho de aplicativos e otimizar custos são algumas das possibilidades que traz a adoção da GenAI combinada com prompts bem gerados.

Entendendo esse potencial, a DNX Brasil, Premier Partner da AWS, implementou o FM Claude 2 da Anthropic em alguns de seus cases de sucesso. Através de engenharia e geração de prompts, as soluções desenvolvidas foram capazes de ajudar a reduzir significativamente o tempo consumido em tarefas operacionais. Ao mesmo tempo, melhoraram a qualidade dos resultados nesses clientes.

Conheça esses casos!

Alfaneo: Automatização da Geração de Petições Legais usando GenAI

IndeCX: Insights valiosos de Customer Experience através de IA Generativa

Unxpose: Revolucionando processos no setor de segurança da informação com GenAI

 

 

Artigo adaptado e traduzido do blog da Anthropic.

Artigos relacionados

Sidebar Scroll To Top
Facebook Instagram YouTube linkedin