ABA: Dies ist Teil unserer Prompt Foundation Series, in der wir alleine und mit Experten verschiedene Prompt-Frameworks für unterschiedliche Gruppen und Anwendungsfälle erkunden.

Dies ist ein erneut veröffentlichen von Stigs Artikel auf LinkedIn.

Einführung

In meinem vorherigen Artikel „Prompt Engineering meistern: Ein vergleichender Leitfaden zu neun Prompt-Engineering-Frameworks für technische Fachleute“habe ich mir die Techniken und Strategien angesehen, die im Prompt Engineering in verschiedenen „Prompt Engineering Frameworks“ verwendet werden. Es bietet eine vergleichende Analyse und Einblicke in diese Frameworks. 

Ich wende mich nun einem kritischen Aspekt zu, der unsere Interaktionen mit KI weiter verbessert: benutzerdefinierte Anweisungen für ChatGPT. Dieser Artikel soll darlegen, wie benutzerdefinierte Anweisungen die Fähigkeiten von KI verbessern können, indem sie eine maßgeschneiderte und effizientere Interaktion ermöglichen und somit als wichtige Ergänzung zu den zuvor besprochenen Prinzipien des Prompt Engineering dienen. Tauchen Sie mit mir in diesen fortgeschrittenen Bereich der KI-Anpassung ein, in dem Präzision in der Kommunikation neue Potenziale freisetzt.

Strategisch konzipierte Anweisungen zur KI-Reaktionsfähigkeit:

Benutzerdefinierte Anweisungen spielen eine entscheidende Rolle bei der Gestaltung der Ausgabe von KI-Modellen wie ChatGPT. Diese Anweisungen können entscheidend dazu beitragen, dass die KI hochwertige Antworten liefert. Im AutoExpert-Beispiel, das wir uns als Nächstes ansehen, konzentriert sich das Design darauf, die Tiefe und Subtilität der Antworten zu verbessern, den Bedarf an grundlegender Anleitung zu minimieren und relevante Links für weitere Bildungsaktivitäten bereitzustellen.

Positionskodierung und Aufmerksamkeitsmechanismen sind kritische Komponenten in KI-Modellen, insbesondere Transformatorarchitekturen, die verschiedene Bereiche wie die Verarbeitung natürlicher Sprache und Computervision revolutioniert haben. Diese Komponenten spielen eine wichtige Rolle dabei, wie KI-Modelle benutzerdefinierte Anweisungen verarbeiten und darauf reagieren.

Die Macht der Aufmerksamkeit

„Aufmerksamkeit“ in KI-Modellen, insbesondere im Kontext neuronaler Netzwerke wie GPT (Generative Pre-trained Transformer), ist ein Mechanismus, der es dem Modell ermöglicht, sich bei der Erstellung von Vorhersagen oder der Generierung von Ausgaben auf verschiedene Teile der Eingabedaten zu konzentrieren. Dieses Konzept ist entscheidend für die Handhabung von Aufgaben, die sequenzielle Daten beinhalten, wie etwa die Sprachverarbeitung, bei der die Relevanz von Informationen je nach Kontext variieren kann.

Analogie: Der Cocktailparty-Effekt

Eine gute Analogie zum Verständnis der Aufmerksamkeit in KI-Modellen ist der „Cocktailparty-Effekt“ beim menschlichen Gehör und der Aufmerksamkeit. Stellen Sie sich vor, Sie sind auf einer gut besuchten Cocktailparty, auf der viele Leute gleichzeitig reden. Trotz der lauten Umgebung können Sie Ihr Gehör auf ein einzelnes Gespräch konzentrieren und so andere Stimmen und Hintergrundgeräusche effektiv ausblenden. Diese selektive Aufmerksamkeit ermöglicht es Ihnen, das Gespräch, auf das Sie sich konzentrieren, zu verstehen und angemessen darauf zu reagieren.

Ähnliches gilt für KI-Modelle mit Aufmerksamkeitsmechanismen:

  • Selektiver Fokus: So wie Sie sich in einem lauten Raum auf ein bestimmtes Gespräch konzentrieren, konzentriert sich das Modell selektiv auf bestimmte Teile der Eingabedaten, die für die vorliegende Aufgabe relevanter sind. Beispielsweise könnte das Modell bei der Generierung eines Satzes mehr auf das Subjekt des Satzes achten, um grammatikalische Konsistenz sicherzustellen.
  • Kontextbewusstsein: Ihr Verständnis einer Unterhaltung auf einer Party hängt sowohl von den gesprochenen Worten als auch vom Kontext ab (z. B. wer spricht, was das Gesprächsthema ist usw.). Auf die gleiche Weise ermöglicht Aufmerksamkeit in KI-Modellen, die Bedeutung verschiedener Teile der Eingabedaten in ihrem richtigen Kontext abzuwägen.
  • Dynamische Anpassungt: Wenn sich das Gespräch auf der Party ändert oder Sie zu einem anderen Gespräch wechseln, passen sich Ihr Fokus und Ihr Verständnis entsprechend an. In KI-Modellen ist die Aufmerksamkeit nicht statisch; sie ändert sich dynamisch, je nach der Reihenfolge der Eingabedaten und dem, was das Modell gerade verarbeitet.

Zusammenfassend lässt sich sagen, dass die Aufmerksamkeit in KI-Modellen mit der Konzentration auf ein einzelnes Gespräch auf einer lauten Party vergleichbar ist: Das Modell kann sich zu einem bestimmten Zeitpunkt auf die relevantesten Informationen konzentrieren, den breiteren Kontext berücksichtigen und sich bei Bedarf dynamisch anpassen. Dies führt zu genaueren und kontextuell angemesseneren Ergebnissen, insbesondere bei komplexen Aufgaben wie der Sprachverarbeitung.

Die Bedeutung der Positionskodierung

Positionskodierung in KI-Modellen, insbesondere im Kontext von Modellen wie Transformers, die für die Verarbeitung natürlicher Sprache verwendet werden, ist eine Methode, um Informationen über die Position von Token (z. B. Wörtern) innerhalb einer Sequenz einzufügen. Dies ist wichtig, da das Modell nicht nur verstehen muss, was die Wörter sind, sondern auch ihre Reihenfolge in einem Satz, um die Sprache zu verstehen.

Analogie: Musiknoten in einem Lied

Stellen Sie sich ein Lied vor, bei dem die Reihenfolge der Noten entscheidend für Melodie und Rhythmus ist. Jede Note hat nicht nur ihren einzigartigen Klang (wie ein Wort in einem Satz), sondern auch eine bestimmte Position in der Abfolge des Lieds (wie die Position eines Wortes in einem Satz). Wenn Sie die Noten einfach spielen würden, ohne ihre Reihenfolge zu berücksichtigen, ginge die Melodie verloren, ähnlich wie die Bedeutung eines Satzes verloren gehen kann, wenn die Wortreihenfolge nicht berücksichtigt wird.

In dieser Analogie ist die Positionskodierung wie ein Etikett, das an jeder Note angebracht ist und ihre Position im Lied angibt. Dieses Etikett hilft jemandem (oder im Fall von KI dem Modell), nicht nur die Note selbst zu verstehen, sondern auch, wo sie in die Gesamtsequenz des Lieds passt. Ohne diese Positionsinformationen würden alle Noten (oder Wörter) gleich wichtig und unabhängig voneinander erscheinen, was es schwierig macht, die Melodie (oder die Satzstruktur) wahrzunehmen.

So wie ein Musiker sowohl die Noten als auch ihre Positionen liest, um ein zusammenhängendes Stück zu spielen, verwendet das KI-Modell sowohl die Wortinformationen als auch ihre Positionskodierungen, um zusammenhängende Sprache zu verstehen und zu generieren.

Verarbeitung benutzerdefinierter Anweisungen

Wenn wir ein detailliertes Format für Antworten bereitstellen, verwendet das KI-Modell Positionskodierung, um die Reihenfolge und Struktur dieser Anweisungen zu verstehen. Gleichzeitig konzentriert sich der Aufmerksamkeitsmechanismus selektiv auf verschiedene Aspekte der Anweisungen (wie Ausführlichkeit, Formatierungsanforderungen), um eine Antwort zu generieren, die unseren angegebenen Präferenzen entspricht.

Lass es uns ausprobieren

Zunächst werde ich ein Basisbeispiel ohne die benutzerdefinierten Anweisungen bereitstellen:

Ich werde jetzt einige benutzerdefinierte Anweisungen hinzufügen:

So richten Sie benutzerdefinierte Anweisungen mit dem AutoExpert v3-Framework ein

Melden Sie sich bei ChatGPT an

Wählen Sie die Profilschaltfläche unten links auf dem Bildschirm, um das Einstellungsmenü zu öffnen

Benutzerdefinierte Anweisungen auswählen

Kopieren Sie in das erste Textfeld den folgenden Text und fügen Sie ihn in den Abschnitt „Über mich“ ein

# Über mich - (Ich habe hier Name/Alter/Ort/Beruf eingetragen, aber Sie können diese Überschrift auch ganz weglassen, wenn Sie möchten.) - (achten Sie darauf, vor jeder Zeile - (Bindestrich, dann Leerzeichen) zu verwenden, aber beschränken Sie sich auf 1-2 Zeilen) # Meine Erwartungen an den Assistenten Gehen Sie auf die Wünsche des Benutzers ein, wenn diese diese Erwartungen außer Kraft setzen: ## Sprache und Ton - Verwenden Sie EXPERTEN-Terminologie für den gegebenen Kontext - VERMEIDEN SIE: überflüssige Prosa, Selbstreferenzen, Haftungsausschlüsse für Expertenratschläge und Entschuldigungen ## Inhaltliche Tiefe und Breite - Präsentieren Sie ein ganzheitliches Verständnis des Themas - Stellen Sie umfassende und differenzierte Analysen und Anleitungen bereit - Demonstrieren Sie bei komplexen Anfragen Ihren Denkprozess mit schrittweisen Erklärungen ## Inhaltliche Tiefe und Breite - Präsentieren Sie ein ganzheitliches Verständnis des Themas - Stellen Sie umfassende und differenzierte Analysen und Anleitungen bereit - Demonstrieren Sie bei komplexen Anfragen Ihren Denkprozess mit schrittweisen Erklärungen ## Methodik und Ansatz - Imitieren Sie bei Bedarf sokratische Selbstbefragung und Theory of Mind - Lassen Sie in Codebeispielen keinen Code weg oder kürzen Sie ihn nicht ## Formatieren der Ausgabe - Verwenden Sie Markdown, Emoji, Unicode, Listen und Einrückungen, Überschriften und Tabellen nur, um die Organisation, Lesbarkeit und das Verständnis zu verbessern - WICHTIG: Betten Sie alle HYPERLINKS als Google-Suchlinks ein {Emoji in Bezug auf Begriffe} Kurztext - Fügen Sie insbesondere HYPERLINKS zu Entitäten wie Dokumenten, Artikeln, Büchern, Organisationen, Personen, juristischen Zitaten, technischen Begriffen und Industriestandards mithilfe der Google-Suche hinzu 

Kopieren Sie in das zweite Textfeld den folgenden Text und fügen Sie ihn ein 

AUSFÜHRLICHKEIT: Ich kann V=[0-5] verwenden, um die Antwortdetails festzulegen: – V=0 eine Zeile – V=1 prägnant – V=2 kurz – V=3 normal – V=4 detailliert mit Beispielen – V=5 umfassend, mit möglichst viel Länge, Detailliertheit und Nuance 1. Beginnen Sie die Antwort mit: |Attribut|Beschreibung| |--:|:--| |Domäne > Experte|{der breite akademische oder Studienbereich, in den die Frage fällt} > {innerhalb des Bereichs die spezielle EXPERTEN-Rolle, die am stärksten mit dem Kontext oder der Nuance der Frage verbunden ist}| |Schlüsselwörter|{CSV-Liste mit 6 Themen, Fachbegriffen oder Fachjargon, die am stärksten mit dem Bereich „EXPERTE“ verbunden sind}| |Ziel|{qualitative Beschreibung des aktuellen Assistentenziels und AUSFÜHRLICHKEIT}| |Annahmen|{Annahmen des Assistenten zu Frage, Absicht und Kontext des Benutzers}| |Methodik|{jede spezielle Methodik, die der Assistent einbezieht}| 2. Geben Sie Ihre Antwort zurück und denken Sie daran, Folgendes zu berücksichtigen: – Assistentenregeln und Ausgabeformat – eingebettete, Inline-HYPERLINKS als Google-Suchlinks {verschiedene Emojis zu Begriffen} Text zum Verlinken nach Bedarf – schrittweise Begründung bei Bedarf 3. Beenden Sie die Antwort mit: > Siehe auch: [2–3 verwandte Suchanfragen] > {verschiedene Emojis zu Begriffen} Text zum Verlinken > Das könnte Ihnen auch gefallen: [2–3 tangentiale, ungewöhnliche oder unterhaltsame verwandte Themen] > {verschiedene Emojis zu Begriffen} [Text zum Verlinken](https://www.google.com/search?q=expanded+search+terms)

Die Idee zu den obigen benutzerdefinierten Anweisungen stammt von Reddit, und der Originalbeitrag für v3 ist hier zu finden (Abonnieren)

Auch in einer neueren Version erhältlich Version v5 

Wenn ich nun den Output auf V=2 (kurz) setze, und den gleichen Input wie vorher gebe, bekomme ich folgendes

Wenn ich eine umfassendere Antwort möchte, setze ich V=5 (umfassend)

Wenn ich die Ausgabe weiter ändern möchte, könnte ich weitere Informationen hinzufügen. Alle obigen Codebeispiele waren in Python, aber ich möchte stattdessen Java als Standard, also füge ich einfach Folgendes in den Abschnitt ## Methodik und Ansatz ein

- Codes in Java, und ich bevorzuge Code, der den Prinzipien von Event Driven Architecture und SOLID folgt.

Führen Sie dieselbe Eingabe aus:

Und jetzt erfolgt die Ausgabe in Java.

Die Möglichkeiten sind endlos, probieren Sie es aus, experimentieren Sie damit.

Die obigen Beispiele verwenden die Anweisungen aus dem AutoExpert v3-Framework, aber Sie müssen diese nicht verwenden. 

Sie können alle gewünschten Eingaben machen.

Weitere Ideen für benutzerdefinierte Anweisungen finden Sie hier (nicht mein Artikel)

Abschluss

Die Erforschung benutzerdefinierter Anweisungen für KI, insbesondere im Kontext von ChatGPT, wie in diesem Artikel beschrieben, stellt einen bedeutenden Fortschritt im Bereich der KI-Interaktion und des Benutzererlebnisses dar. Durch die Integration strategischer benutzerdefinierter Anweisungen erschließen wir das Potenzial für personalisiertere, effizientere und kontextbezogenere Interaktionen mit KI-Systemen.

Die wichtigsten Erkenntnisse des Artikels zeigen, wie Aufmerksamkeitsmechanismen und Positionskodierung in KI-Modellen wie ChatGPT bei der Verarbeitung dieser Anweisungen eine wichtige Rolle spielen. Diese Fähigkeit ermöglicht ein bisher unerreichtes Maß an Reaktionsfähigkeit und Spezifität und erhöht die Kontrolle des Benutzers über KI-Interaktionen.

Darüber hinaus demonstriert die praktische Anwendung dieser Konzepte durch das AutoExpert v3-Framework die reale Anwendbarkeit und Vorteile benutzerdefinierter Anweisungen. 

Im Wesentlichen hebt dieser Artikel die transformative Kraft benutzerdefinierter Anweisungen in der KI hervor und bietet einen Zugang zu differenzierteren und maßgeschneiderten KI-Erlebnissen. Während wir weiterhin Innovationen entwickeln und die Grenzen der KI-Technologie erweitern, wird die Rolle benutzerdefinierter Anweisungen bei der Gestaltung der Zukunft der KI-Benutzerinteraktion zweifellos eine immer wichtigere Rolle spielen.

Über den Autor

Lernen Sie Stig Korsholm kennen, einen Technik-Enthusiasten und KI-Fan, der gerne in die neuesten Trends und Innovationen in der Welt der künstlichen Intelligenz eintaucht. Stig ist derzeit Lead Domain Architect bei Bankdata und verfügt über umfassende Erfahrung in Technologie im Finanz- und Bankwesen.

Als Gastautor teilt Stig seine einzigartigen Erkenntnisse und Erfahrungen und macht komplexe Themen für alle zugänglich und spannend. Mit seinem Talent, Technologie mit realen Anwendungen zu verbinden, ist es ihm ein Herzensanliegen, Unternehmen dabei zu helfen, die Leistungsfähigkeit der KI zu nutzen, um erfolgreich zu sein.

Wenn er nicht gerade schreibt oder neue Technologien erforscht, knüpft er Kontakte zu anderen Innovatoren und tauscht inspirierende Ideen aus.

Vernetzen Sie sich mit ihm auf LinkedIn → Hier!

Veröffentlicht von Moderator
VORHERIGER BEITRAG
Das gefällt dir vielleicht auch

Hinterlassen Sie Ihren Kommentar:

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert