Ich habe jetzt schon häufiger mitbekommen, wie sich Personen auf LinkedIn oder in Interviews darüber beschwert haben, dass die GPT-Anbieter ihres Vertrauens durch einen Modellwechsel „Ihr persönliches GPT“ gekillt hätten. Viele User geben Ihren GPTs eigene Namen. Und das ist nachvollziehbar, denn Künstliche Intelligenz wirkt oft wie ein digitaler Assistent mit eigener „Persönlichkeit“.
Das kann sich positiv oder negativ auswirken. Wir kennen alle die Situationen in denen „unser“ GPT uns übertrieben zustimmt oder lobt, einfach irgendwelche Behauptungen erfindet oder sogar mal passiv aggressiv reagiert.
Eine Studie von Ende Juli („PERSONA VECTORS: MONITORING AND CONTROLLING CHARACTER TRAITS IN LANGUAGE MODELS“) erläutert, wie sich solche Verhaltensmuster der KI messen und auch gezielt beeinflussen lassen. Das funktioniert sowohl während des Modell-Trainings als auch im Produktiveinsatz durch Prompting.
Ich persönlich finde die Möglichkeit meinem GPT eine eigene Persona „verpassen zu können“ super und auch wichtig. Schließlich will keiner mit einem stumpfsinnigen Roboter reden. So wie kein Mensch einfach nur gut oder böse ist, sondern vielschichtige Persönlichkeitsmerkmale hat, die in ihrer Gesamtheit die Persönlichkeit bilden, sollten auch KI-Systeme eine Art Individualität haben, damit sie leistungsfähig und „attraktiv“ sind. Für dieses Training will ich aber persönlich zuständig sein.
Ich möchte keinen Assistenten, dem stromlinienförmig alle Ecken und Kanten abtrainiert worden sind. Deshalb sollte sich das (Pre-)Training durch die KI-Entwickler darauf konzentrieren, dass den Systemen beigebracht wird, welches Verhalten, welche Aussagen und Aktionen gesellschaftlich nicht tolerierbar sind. Der Fokus sollte ebenso darauf liegen, dass Informationen sauber validiert werden und keine falschen Daten verbreitet werden. Was nützt uns ein System, welches in super freundlichem und anbiederndem Ton die wildesten Verschwörungstheorien teilt oder mit scheinbar nachvollziehbaren Argumenten menschenverachtende Taten rechtfertigt?!


Schreibe einen Kommentar