ChatGPT: Künstliche Intelligenz im Mittelpunkt

ChatGPT: Künstliche Intelligenz im Mittelpunkt

Logo de l'Open AI

Ende 2022 hat die Einführung von ChatGPT für viel Aufregung gesorgt. Dieser Conversational AI-Roboter, der von dem Unternehmen OpenAI entwickelt wurde, soll in der Lage sein, alle unsere Anfragen so zu beantworten wie es ein Mensch tun würde. Das ist sowohl seine Stärke als auch seine Schwäche. Obwohl ChatGPT uns viele Aufgaben erleichtern kann, ist die Qualität der bereitgestellten Ergebnisse nicht makellos und Fehler können zu echter Fehlinformation führen. Darüber hinaus kann die Ähnlichkeit mit menschlicher Sprache, obwohl diese neue Technologie auf den ersten Blick einfach und sehr nützlich erscheint, besorgniserregend sein und viele Fragen aufwerfen, insbesondere in Bezug auf Ethik.

Begrenzte Informationen :

ChatGPT verwendet ein Sprachmodell, das auf vielen wichtigen digitalen Datenbanken trainiert wurde, um Texte in menschlicher Sprache zu produzieren.

Dieses System ist ziemlich beeindruckend: Es kann für dieselbe Frage verschiedene Texte generieren, umformulieren und verbessern. In der Regel liefert es recht objektive Informationen: Wenn man zum Beispiel nach Erklärungen zu kontroversen Themen (wie Wokeness, Feminismus oder politischen Parteien) fragt, präsentiert es die aktuelle Situation und gibt die verschiedenen Meinungen zum betreffenden Thema wieder, ohne Partei zu ergreifen. Darüber hinaus liefert es in der Regel genaue Informationen.

Jedoch ist dieses Modell nicht ohne Grenzen. Im Gegenteil, es gibt mehrere Punkte, die angesprochen werden müssen :

Zunächst einmal bezüglich der Wahrhaftigkeit seiner Aussagen: Es gibt viele Fälle, in denen es möglich ist, ihn dazu zu bringen, falsche Informationen zu geben, oder solche, in denen er selbst eine falsche Antwort auf eine Frage gibt (wenn er beispielsweise zu Datenverlust befragt wird, einer kontroversen Frage in der Doktrin und Rechtsprechung, gibt er im Gegenteil eine scharfe Antwort, die angeblich auf dem Strafgesetzbuch basiert). Wenn man ihn dann auf seinen Fehler hinweist, zögert er nicht, ihn anzuerkennen und seine Aussagen zu ändern. Darüber hinaus sind die Informationen, die er besitzt, auf diejenigen beschränkt, die im Jahr 2021 verfügbar waren. Es ist also unmöglich, eine Antwort zu erhalten, wenn er nach dem Ergebnis eines Sportereignisses oder einer politischen Wahl nach diesem Datum gefragt wird. Es sollte jedoch angemerkt werden, dass Version 4 von GPT, die derzeit bei OpenAI entwickelt wird, dieses Problem wahrscheinlich lösen wird. Aber im Moment ist es immer noch eine Grenze. Es scheint hier notwendig zu sein, daran zu erinnern, dass Bard, das Pendant von ChatGPT bei Google, bei einer öffentlichen Demonstration einen Fehler gemacht hat: Er behauptete, dass das James-Webb-Weltraumteleskop das erste ist, das Fotos von einem Planeten außerhalb des Sonnensystems aufnehmen konnte. Tatsächlich wurde dies bereits 2004 getan..

Zweitens ist zu beachten, dass diese sachlichen Fehler nicht die einzigen sind, die bei der Prüfung der Richtigkeit der von GPT 3 gelieferten Aussagen berücksichtigt werden müssen: Auch kognitive Verzerrungen sind ein Mangel des Modells, der bedauert werden muss. Die Dokumente, von denen sich GPT 3 ernährt hat, enthalten manchmal kognitive Verzerrungen wie Rassismus oder Sexismus, die er in seinen Antworten reproduziert. Die Objektivität des Chatbot ist also nicht absolut, obwohl er bei jeder Nachfrage nach seiner Meinung immer wieder betont, dass er „als künstliche Intelligenz nicht in der Lage ist, eigene Meinungen zu haben. Allerdings kann [er] Ihnen eine Definition dieses Begriffs liefern und Ihnen eine neutrale Perspektive geben“. Leider perpetuiert die Wiederverwendung von Vorurteilen in den Ausgangstexten diese Vorurteile, ohne dass man wissen kann, woher diese spezifische Sichtweise stammt, da ChatGPT keine Quellen angibt. Dieses letzte Element kann auch Fragen zum geistigen Eigentum der von der KI geleisteten Arbeit aufwerfen.

Zuletzt besteht die Gefahr, dass falsche Informationen, die von künstlicher Intelligenz bereitgestellt werden, verbreitet werden, aus zwei Gründen: Zum einen gibt ChatGPT seine Antworten mit einer erschreckenden Entschlossenheit ab, die keinen Raum für Zweifel lässt und dazu führt, dass man ihm vertraut und die Antworten nicht überprüft, wodurch grobe Fehler verbreitet werden können, die er produzieren kann. Zum anderen darf die Möglichkeit einer Welle von Falschmeldungen aufgrund menschlicher Eingriffe nicht vernachlässigt werden: ChatGPT ist in der Lage, Texte zu erfinden, die die ihm gegebenen Informationen enthalten, einschließlich falscher Informationen. Es wäre dann möglich, diese Falschmeldungen als wahr zu verbreiten. Aber das ist nicht alles: Das Sprachmodell von OpenAI, das sich von Informationen im Internet ernährt, könnte sich später auf diese falschen Informationen stützen, um Antworten auf die Fragen der Benutzer zu geben.

Ethische Fragen :

ChatGPT ist in der Lage, Texte von hoher Qualität zu schreiben, die den von Menschen produzierten ähneln. Dies wirft die Frage auf, wie sie im Bildungsbereich eingesetzt werden können. Eine Kontroverse entstand, als klar wurde, dass ChatGPT ein Werkzeug sein kann, das einigen Schülern das Schummeln erleichtert: Wie kann man feststellen, ob ein Text vom Schüler oder von ChatGPT verfasst wurde? Die von ihm erstellten Texte sind von sehr guter Qualität und er bietet niemals denselben Text zweimal an, so dass seine Verwendung zum Schreiben von Aufgaben sehr schwer zu erkennen ist.

Diese Kontroverse zwang OpenAI, ein Werkzeug zu entwickeln, das Texte identifizieren kann, die von ChatGTP verfasst wurden: GPT Zero. Einige Aspekte wie die verwendete Struktur oder Interpunktion werden vom KI-Tool ziemlich regelmäßig genutzt, was die Erkennung seiner Arbeit ermöglichen kann. Sobald der umstrittene Text in GPT Zero eingegeben wurde, bewertet das Tool mit einer Skala von 1 bis 5, ob dieser Text von ChatGPT verfasst worden sein könnte. Dies ist also keine sichere Antwort und das Tool kann einige Texte durchlassen. Darüber hinaus funktioniert GPT Zero derzeit hauptsächlich bei Texten mit mehr als 1000 Wörtern und in englischer Sprache, was seine Wirksamkeit erheblich einschränkt. Aus diesem Grund haben sich separate Unternehmen von OpenAI mit dem Thema beschäftigt: Am 16. Januar wurde die Website Detector.dng.ai gestartet, um zu bestimmen, ob ein Text von ChatGPT verfasst wurde. Und Plagiatssoftware, die derzeit nicht in der Lage sind, effektiv zu sein, wenn der Chatbot ins Spiel kommt, müssen sich schnell verbessern.

Letztendlich stellt sich jedoch die Frage, insbesondere da mehrere Einrichtungen beschlossen haben, seine Verwendung zu verbieten (einschließlich Sciences Po), eher die seiner Integration in die Bildung, wie es bei vielen anderen neuen Technologien der Fall war. Umso mehr, als die Qualität dieser KI es in Zukunft schwierig machen könnte, Texte von Menschen von denen von Robotern zu unterscheiden: Daher ist es besser, so früh wie möglich zu lernen, sie zu beherrschen.

Erfahren Sie mehr über unsere Vision und Analyse von ChatGPT

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.