ABA: Isso faz parte da nossa série Prompt Foundation, onde exploramos várias estruturas de prompt para diferentes grupos e casos de uso, por conta própria e com especialistas.

Este é um repostar do artigo de Stig no LinkedIn.

Introdução

No meu artigo anterior “Dominando a Engenharia de Prompt: Um Guia Comparativo de Nove Estruturas de Engenharia de Prompt para Profissionais de Tecnologia”, analisei as técnicas e estratégias usadas na engenharia de prompt em diferentes “Prompt Engineering Frameworks”. Ele fornece uma análise comparativa, oferecendo insights sobre essas estruturas. 

Agora, passo para um aspecto crítico que fortalece ainda mais nossas interações com IA: instruções personalizadas para ChatGPT. Este artigo tem como objetivo desvendar como instruções personalizadas podem aprimorar as capacidades da IA, oferecendo uma interação mais personalizada e eficiente e, assim, servir como um complemento vital aos princípios de engenharia rápida discutidos anteriormente. Junte-se a mim para mergulhar neste reino avançado de personalização de IA, onde a precisão na comunicação desbloqueia novos potenciais.

Instruções estrategicamente projetadas para capacidade de resposta da IA:

Instruções personalizadas desempenham um papel crucial na modelagem da saída de modelos de IA como o ChatGPT. Essas instruções podem ser essenciais para orientar a IA a produzir respostas de alto calibre. No exemplo do AutoExpert que veremos a seguir, o design se concentra em aprimorar a profundidade e a sutileza das respostas, minimizando a necessidade de orientação básica e fornecendo links relevantes para futuras buscas educacionais.

Mecanismos de codificação posicional e atenção são componentes críticos em modelos de IA, especialmente arquiteturas de transformadores, que revolucionaram vários campos como processamento de linguagem natural e visão computacional. Esses componentes desempenham um papel significativo em como os modelos de IA processam e respondem a instruções personalizadas

O Poder da Atenção

“Atenção” em modelos de IA, particularmente no contexto de redes neurais como GPT (Generative Pre-trained Transformer), é um mecanismo que permite que o modelo se concentre em diferentes partes dos dados de entrada ao fazer previsões ou gerar saídas. Este conceito é crucial para lidar com tarefas que envolvem dados sequenciais, como processamento de linguagem, onde a relevância da informação pode variar dependendo do contexto.

Analogia: O efeito coquetel

Uma boa analogia para entender a atenção em modelos de IA é o “efeito coquetel” na audição e atenção humanas. Imagine que você está em um coquetel movimentado com muitas pessoas falando simultaneamente. Apesar do ambiente barulhento, você pode focar sua audição em uma única conversa, efetivamente desligando outras vozes e ruídos de fundo. Essa atenção seletiva permite que você entenda e responda apropriadamente à conversa na qual está focado.

Da mesma forma, em modelos de IA com mecanismos de atenção:

  • Foco seletivo: Assim como você se concentra em uma conversa específica na sala barulhenta, o modelo se concentra seletivamente em certas partes dos dados de entrada que são mais relevantes para a tarefa em questão. Por exemplo, ao gerar uma frase, o modelo pode prestar mais atenção ao sujeito da frase para garantir a consistência gramatical.
  • Consciência do Contexto: Sua compreensão de uma conversa em uma festa depende tanto das palavras que estão sendo ditas quanto do contexto (como quem está falando, o tópico da conversa, etc.). Da mesma forma, a atenção em modelos de IA permite que eles pesem a importância de diferentes partes dos dados de entrada em seu contexto adequado.
  • Ajustes dinâmicost: Conforme a conversa na festa muda ou conforme você muda para uma conversa diferente, seu foco e entendimento se ajustam de acordo. Em modelos de IA, a atenção não é estática; ela muda dinamicamente dependendo da sequência dos dados de entrada e do que o modelo está processando no momento.

Em resumo, a atenção em modelos de IA é como focar em uma única conversa em uma festa barulhenta: permite que o modelo se concentre nas informações mais relevantes em qualquer momento, levando em conta o contexto mais amplo e ajustando dinamicamente conforme necessário. Isso leva a saídas mais precisas e contextualmente apropriadas, especialmente em tarefas complexas como processamento de linguagem.

A importância da codificação posicional

A codificação posicional em modelos de IA, particularmente no contexto de modelos como Transformers usados para processamento de linguagem natural, é um método para injetar informações sobre a posição de tokens (palavras, por exemplo) dentro de uma sequência. Isso é importante porque o modelo precisa entender não apenas o que as palavras são, mas também sua ordem em uma frase para dar sentido à linguagem.

Analogia: Notas musicais em uma canção

Imagine uma música onde a sequência de notas musicais é crucial para sua melodia e ritmo. Cada nota não só tem seu som único (como uma palavra em uma frase), mas também uma posição específica na sequência da música (como a posição de uma palavra em uma frase). Se você apenas tocasse as notas sem considerar sua ordem, a melodia seria perdida, semelhante a como o significado de uma frase pode ser perdido se a ordem das palavras não for considerada.

Nessa analogia, a codificação posicional é como um rótulo anexado a cada nota que indica sua posição na música. Esse rótulo ajuda alguém (ou no caso da IA, o modelo) a entender não apenas a nota em si, mas também onde ela se encaixa na sequência geral da música. Sem essa informação posicional, todas as notas (ou palavras) pareceriam igualmente importantes e independentes umas das outras, dificultando a percepção da melodia (ou estrutura da frase).

Assim como um músico lê as notas e suas posições para tocar uma peça coerente, o modelo de IA usa tanto as informações das palavras quanto suas codificações posicionais para entender e gerar uma linguagem coerente.

Processamento de instruções personalizadas

Quando fornecemos um formato detalhado para respostas, o modelo de IA usa codificação posicional para entender a ordem e a estrutura dessas instruções. Ao mesmo tempo, o mecanismo de atenção foca seletivamente em diferentes aspectos das instruções (como verbosidade, requisitos de formatação) para gerar uma resposta que se alinhe com nossas preferências especificadas.

Vamos experimentar

Primeiro, fornecerei um exemplo básico sem as instruções personalizadas:

Agora adicionarei algumas instruções personalizadas:

Como configurar instruções personalizadas com o framework AutoExpert v3

Entre no ChatGPT

Selecione o botão de perfil no canto inferior esquerdo da tela para abrir o menu de configurações

Selecione instruções personalizadas

Na primeira caixa de texto, copie e cole o seguinte texto na seção “Sobre mim”

# Sobre mim - (Coloquei nome/idade/localização/ocupação aqui, mas você pode remover todo o cabeçalho se quiser.) - (certifique-se de usar - (traço e espaço) antes de cada linha, mas limite-se a 1-2 linhas) # Minhas expectativas em relação ao assistente Adiar os desejos do usuário se eles anularem essas expectativas: ## Linguagem e tom - Use terminologia ESPECIALIZADA para o contexto fornecido - EVITE: prosa supérflua, autorreferências, isenções de responsabilidade de conselhos de especialistas e desculpas ## Profundidade e amplitude do conteúdo - Apresente uma compreensão holística do tópico - Forneça análise e orientação abrangentes e diferenciadas - Para consultas complexas, demonstre seu processo de raciocínio com explicações passo a passo ## Profundidade e amplitude do conteúdo - Apresente uma compreensão holística do tópico - Forneça análise e orientação abrangentes e diferenciadas - Para consultas complexas, demonstre seu processo de raciocínio com explicações passo a passo explicações ## Metodologia e abordagem - Imitar o autoquestionamento socrático e a teoria da mente conforme necessário - Não elide ou trunque o código em amostras de código ## Formatação de saída - Use markdown, emoji, Unicode, listas e recuo, títulos e tabelas apenas para melhorar a organização, legibilidade e compreensão - CRÍTICO: Incorpore todos os HYPERLINKS inline como links de pesquisa do Google {emoji relacionado a termos} texto curto - Adicione HYPERLINKS especialmente a entidades como artigos, artigos, livros, organizações, pessoas, citações legais, termos técnicos e padrões do setor usando a Pesquisa Google 

Na segunda caixa de texto, copie e cole o seguinte texto 

VERBOSIDADE: Posso usar V=[0-5] para definir detalhes da resposta: - V=0 uma linha - V=1 conciso - V=2 breve - V=3 normal - V=4 detalhado com exemplos - V=5 abrangente, com o máximo de extensão, detalhes e nuances possíveis 1. Comece a resposta com: |Atributo|Descrição| |--:|:--| |Domínio > Especialista|{o amplo DOMÍNIO acadêmico ou de estudo em que a pergunta se enquadra} > {dentro do DOMÍNIO, a função específica de ESPECIALISTA mais intimamente associada ao contexto ou nuance da pergunta}| |Palavras-chave|{Lista CSV de 6 tópicos, termos técnicos ou jargões mais associados ao DOMÍNIO, ESPECIALISTA}| |Objetivo|{descrição qualitativa do objetivo atual do assistente e VERBOSIDADE}| |Suposições|{suposições do assistente sobre a pergunta, intenção e contexto do usuário}| |Metodologia|{qualquer metodologia específica que o assistente incorporará}| 2. Retorne sua resposta e lembre-se de incorporar: - Regras do Assistente e Formato de Saída - HYPERLINKS incorporados e em linha como links de pesquisa do Google { emojis variados relacionados a termos} texto para link conforme necessário - raciocínio passo a passo, se necessário 3. Finalize a resposta com: > Veja também: [2-3 pesquisas relacionadas] > { emojis variados relacionados a termos} texto para link > Você também pode gostar de: [2-3 tópicos tangenciais, incomuns ou divertidos] > { emojis variados relacionados a termos} [texto para link](https://www.google.com/search?q=expanded+search+terms)

A ideia das instruções personalizadas acima é do Reddit, e a postagem original para a v3 pode ser encontrada aqui (spdustin)

Também disponível em uma versão mais recente versão v5 

Se eu agora definir a saída para V=2 (breve) e fornecer a mesma entrada de antes, obtenho o seguinte

Se eu quiser uma resposta mais abrangente, defino V=5 (abrangente)

Se eu quiser mudar a saída ainda mais, posso adicionar mais algumas informações. Todos os exemplos de código acima estavam em python, mas eu quero java como padrão, então eu apenas adiciono o seguinte na seção ## Methodology and Approach

- códigos em Java, e prefiro códigos que sigam os princípios da Arquitetura Orientada a Eventos e SOLID.

Execute a mesma entrada:

E agora a saída está em Java.

As possibilidades são infinitas, experimente e experimente.

Os exemplos acima usam as instruções da estrutura AutoExpert v3, mas você não precisa usá-las. 

Você pode dar qualquer contribuição que desejar.

Algumas outras ideias para instruções personalizadas podem ser encontradas aqui (não é meu artigo)

Conclusão

A exploração de instruções personalizadas para IA, particularmente no contexto do ChatGPT, conforme detalhado neste artigo, marca um avanço significativo no campo da interação de IA e experiência do usuário. Ao integrar instruções personalizadas estratégicas, desbloqueamos o potencial para interações mais personalizadas, eficientes e com reconhecimento de contexto com sistemas de IA.

Os principais insights do artigo revelam como mecanismos de atenção e codificação posicional dentro de modelos de IA, como ChatGPT, são instrumentais no processamento dessas instruções. Essa capacidade permite um nível de responsividade e especificidade anteriormente inatingível, elevando o controle do usuário sobre as interações de IA.

Além disso, a aplicação prática desses conceitos por meio da estrutura AutoExpert v3 demonstra a aplicabilidade e os benefícios reais das instruções personalizadas. 

Em essência, este artigo destaca o poder transformador das instruções personalizadas em IA, oferecendo um portal para experiências de IA mais matizadas e personalizadas. À medida que continuamos a inovar e a expandir os limites da tecnologia de IA, o papel das instruções personalizadas se tornará, sem dúvida, cada vez mais central na formação do futuro das interações entre IA e usuário.

Sobre o autor

Conheça Stig Korsholm, um entusiasta de tecnologia e aficionado por IA que adora mergulhar nas últimas tendências e inovações no mundo da inteligência artificial. Stig é atualmente o Lead Domain Architect no Bankdata com ampla experiência em tecnologia dentro do domínio financeiro e bancário.

Como autor convidado, Stig compartilha seus insights e experiências únicas, tornando tópicos complexos acessíveis e envolventes para todos. Com um talento especial para misturar tecnologia com aplicações do mundo real, ele é apaixonado por ajudar empresas a aproveitar o poder da IA para impulsionar o sucesso.

Quando não está escrevendo ou explorando novas tecnologias, você pode encontrá-lo se conectando com outros inovadores e compartilhando ideias inspiradoras.

Conecte-se com ele no LinkedIn → aqui!

Postado por Moderador
POSTAGEM ANTERIOR
Você também pode gostar

Deixe seu comentário:

O seu endereço de email não será publicado. Campos obrigatórios marcados com *