ChatGPT verhält sich seltsam – es ist wahrscheinlich unsere Schuld

UWUKKU534FMKTLTF4QA4C6GECY
Übersetzen von : ChatGPT opfører sig underligt - det er nok vores skyld
ChatGPT hat sich in den letzten Monaten seltsam verhalten. Benutzer haben sich darüber beschwert, dass der Chatbot zunehmend träge und sogar etwas schlaff geworden sei, und OpenAI hat das Problem erkannt und im Januar eine Lösung eingeführt.

Die Undurchsichtigkeit des KI-Modells, das ChatGPT antreibt, macht es schwierig zu sagen, was mit dem Chatbot nicht stimmt – aber ein Forscher glaubt, dass es die riesigen Datenmengen sind, die aus Benutzerinteraktionen mit dem Chatbot stammen, die dazu führen, dass er sich auf unvorhersehbare Weise verändert.

„Ein Modell wie GPT4 ist kein einzelnes Modell. Es ist ein lernendes System, das sich im Laufe der Zeit tatsächlich sehr schnell ändert“, sagte James Zou, Professor und KI-Forscher an der Stanford University, gegenüber Business Insider.

„Ein wichtiger Grund dafür, dass sich die Systeme im Laufe der Zeit weiterentwickeln, ist, dass sie ständig Rückmeldungsdaten von Millionen von Benutzern erhalten. Ich denke, das ist eine große Quelle möglicher Änderungen am Modell“, fügte er hinzu. KI-Modelle wie GPT-4 werden ständig optimiert und aktualisiert, und OpenAI verlässt sich auf Interaktionen mit Benutzern, um ChatGPT so zu trainieren, dass es gesprächiger und nützlicher wird.

Es funktioniert durch einen Prozess namens Reinforcement Learning aus menschlichem Feedback, bei dem das KI-Modell lernt, welche Reaktionen für Benutzer günstiger sind, und sich entsprechend anpasst. In den letzten Monaten haben sich Nutzer des Chatbots, der Berichten zufolge inzwischen rund 1,7 Milliarden Nutzer hat, über ein seltsames Verhalten beschwert. Einige haben auf

OpenAI hat das Problem erkannt und eine Lösung bereitgestellt. CEO Sam Altman sagte, dass ChatGPT jetzt „viel weniger faul“ sein sollte. KI-Experten sagen oft, dass Modelle wie GPT-4 im Wesentlichen Black Boxes sind, bei denen selbst ihre Entwickler nicht vollständig erklären können, warum sie bestimmte Entscheidungen treffen oder auf bestimmte Weise reagieren. Infolgedessen neigen sie dazu, unerwartetes und oft geradezu seltsames Verhalten an den Tag zu legen – wie einige Benutzer kürzlich herausfanden, als ihnen klar wurde, dass ChatGPT längere Antworten geben würde, wenn sie versprachen, ihm ein Trinkgeld von 200 US-Dollar zu geben.

Laut Zou sind einige dieser Macken wahrscheinlich auf menschliche Voreingenommenheit zurückzuführen, die aus den riesigen Mengen an Online-Daten resultiert, mit denen der Chatbot trainiert wird. „Diese großen Modelle werden oft auf Daten im Internetmaßstab trainiert, einem riesigen Textkorpus, der aus Millionen von Websites und Online-Diskussionen besteht“, sagte er. „Es gibt also viele verschiedene menschliche Verhaltensweisen und menschliche Vorurteile im Trainingsdatensatz, die sich auch in den Sprachmodellen widerspiegeln“, fügte er hinzu. Zou sagte, ein weiterer Grund für Änderungen im Verhalten von GPT-4 könnte der Versuch von OpenAI sein, dem Modell zusätzliche Schutzmaßnahmen hinzuzufügen, um Missbrauch zu verhindern, was seiner Meinung nach die Leistung von ChatGPT unbeabsichtigt beeinträchtigen könnte.

Er verwies auf Experimente, die sein Team in Stanford mit Open-Source-KI-Modellen durchgeführt hatte und die zeigten, dass die Feinabstimmung dieser Modelle, um sie sicherer zu machen, auch dazu führte, dass sie weniger bereit waren, bestimmte Fragen zu beantworten. „OpenAI hat entschieden, dass ihre Werte mit Harmlosigkeit, Hilfsbereitschaft und Ehrlichkeit zusammenhängen, und das sind die Bereiche, die sie priorisieren“, sagte Zou. „Das kann zu konkurrierenden Zielen führen. Wenn man das Modell sehr harmlos macht, könnte es für einige Benutzer auch weniger kreativ oder weniger nützlich sein“, fügte er hinzu. „Ich denke, das könnte auch ein Grund dafür sein, dass wir mögliche Abweichungen oder Veränderungen im Verhalten des Modells sehen.“



Our Partners