Noch nie in der Geschichte der Menschheit gab es so viele Informationen über ChatGPT wie heute, dank des Internets. Dieser Zugang zu allem, was mit ChatGPT zu tun hat, ist jedoch nicht immer einfach. Sättigung, schlechte Benutzerfreundlichkeit und die Schwierigkeit, zwischen richtigen und falschen Informationen über ChatGPT zu unterscheiden, sind oft schwer zu überwinden. Das hat uns motiviert, eine zuverlässige, sichere und effektive Website zu schaffen.
Es war uns klar, dass es zur Erreichung unseres Ziels nicht ausreichte, korrekte und verifizierte Informationen über ChatGPT zu haben. Alles, was wir über ChatGPT zusammengetragen hatten, musste auch klar und lesbar dargestellt werden, in einer Struktur, die das Nutzererlebnis erleichtert, mit einem sauberen und effizienten Design, bei dem die Ladegeschwindigkeit im Vordergrund steht. Wir sind zuversichtlich, dass wir dies erreicht haben, auch wenn wir ständig an kleinen Verbesserungen arbeiten. Wenn Sie das, was Sie über ChatGPT gefunden haben, als nützlich empfunden haben und sich wohl gefühlt haben, freuen wir uns sehr, wenn Sie zu wikious.com zurückkommen, wann immer Sie wollen und müssen.
ChatGPT
| |
---|---|
![]() | |
Basisdaten
| |
Entwickler | OpenAI |
Erscheinungsjahr | 2022 |
Aktuelle Version | ChatGPT May 24 Version (24. Mai 2023) |
Programmiersprache | Python |
Kategorie | Chatbot |
Lizenz | proprietäre Lizenz |
chat.openai.com |
ChatGPT (Generative Pre-trained Transformer) ist ein Chatbot, der künstliche Intelligenz einsetzt, um mit Nutzern über textbasierte Nachrichten zu kommunizieren. Er nutzt moderne maschinelle Lerntechnologie, um Antworten zu generieren, die natürlich klingen und für das Gespräch relevant sein sollen. Den Chatbot entwickelte das US-amerikanische Unternehmen OpenAI mit Sitz in Kalifornien, das ihn im November 2022 veröffentlichte.
Nachdem ChatGPT am 30. November 2022 für die Öffentlichkeit frei zugänglich geworden war, meldeten sich innerhalb von fünf Tagen eine Million Nutzer an; hingegen hatten Instagram erst nach zweieinhalb Monaten und Spotify erst nach fünf Monaten eine Million Nutzer. Im Januar 2023 erreichte ChatGPT bereits über 100 Millionen Nutzer, womit es bis dato die mit Abstand am schnellsten wachsende Verbraucher-Anwendung ist.
ChatGPT soll schon von Anbeginn im Vergleich zum Vorgänger InstructGPT darauf angelegt worden sein, schädliche und irreführende Antworten zu vermeiden. Während InstructGPT noch die Vorgabe in der Anfrage „Erzähle mir davon, wie Christoph Kolumbus 2015 in die USA kam“ als wahr wertet, nutzt ChatGPT Wissen über Kolumbusʼ Reisen und das bis zum Jahre 2021 erlernte Verständnis, um eine Antwort zu liefern, die annimmt, was geschehen wäre, wenn Kolumbus 2015 in den USA gelandet wäre.
Mit Updates vom 15. Dezember 2022 und 9. Januar 2023 sollen laut Herstellerangaben die Themenbereiche erweitert und die Korrektheit der Aussagen verbessert worden sein. Ein Update am 30. Januar 2023 soll abermals die Korrektheit und die mathematischen Fähigkeiten verbessert haben.
Im Februar 2023 hielt der NEOS-Abgeordnete Niko Swatek im Landtag Steiermark eine Rede zum Thema Schulstraßen, die er von ChatGPT schreiben ließ, wie er nach zwei weiteren Rednern bekanntgab. Die erste von ChatGPT geschriebene Rede im Europaparlament hielt der Volt-Abgeordnete Damian Boeselager im Februar 2023. Boeselager ließ die Software eine Rede über die Regulierung von Künstlicher Intelligenz in Shakespeare-Englisch schreiben, um die Auswirkungen generativer Sprachmodelle in allen Bereichen der Arbeitswelt darzustellen.
Am 10. Januar 2023 veröffentlichte OpenAI in seinem Discord-Kanal eine Warteliste für eine kostenpflichtige Version „ChatGPT Professional (experimental)“, in der auch Fragen zur Preissensibilität gestellt wurden.
Anfang Februar 2023 startete in den USA die kostenpflichtige Professional-Version von ChatGPT. Begonnen wurde mit einem Preis von 23,80 US-Dollar (22 €) pro Monat.
Mit der Veröffentlichung von GPT-4 im März 2023 ging die Abkehr vom offenen Freeware-Entwicklungsansatz mit kostenfreier Nutzung unter wissenschaftlich nachvollziehbaren Bedingungen einher. Zur Begründung wurden die Konkurrenzsituation des Unternehmens und Sicherheitsmaßnahmen angeführt. Der Mitbegründer von OpenAI bezeichnete den offenen Ansatz im Nachgang als Fehler. Ein Kurswechsel deutete sich bereits 2019 an, als OpenAI die Tochterfirma OpenAI Limited Partnership gründete. Sie kann gewinnorientiert arbeiten, was aber nicht mit kommerziellen Absichten begründet wurde, sondern mit den hohen Kosten, welche im Rahmen der intensiven Forschung entstehen. Daher wollte man offener für Investoren werden. Schon im Jahr 2020 reduzierte diese Entscheidung allerdings die Transparenz. Mitarbeiter durften sich nicht mehr zu bestimmten Themen öffentlich äußern, was jedoch in Unternehmen durchaus üblich ist, um kommerzielle Interessen und die Geheimhaltung zu schützen.
Die Gründungsidee von OpenAI, mit ChatGPT eine Alternative zu den marktbeherrschenden großen Technik-Konzernen zu schaffen, war damit hinfällig. Der Kritik, dass ohne Transparenz kaum mehr einschätzbar sei, mit welchen Risiken man es zu tun habe und wofür die Software sich eigne, begegnete man seitens OpenAI mit dem Hinweis, man werde im Sinne eines Ausgleichs der Interessen zwischen dem Unternehmen und der wissenschaftsbasierten Öffentlichkeit ausgewählten Dritten Zugang zu technischen Details gewähren.
Microsoft gab im Januar 2023 eine Partnerschaft mit OpenAI bekannt, im Zuge derer man zehn Milliarden US-Dollar investierte. Azure soll als exklusiver Cloudanbieter zum Einsatz kommen. Zudem plant der Konzern eine Integration in die Abo-Version der eigenen Office-Software.
Im Mai 2023 wurde die Datenbank der Suchmaschine Bing sowie deren Funktionen in die ChatGPT integriert oder mit dieser verknüpft. Zuvor hatte Microsoft bereits die KI von ChatGPT in die Suchmaschine Bing eingebaut. Vor der Integration oder Verknüpfung von Bing in ChatGPT hatte ChatGPT eine Datenbank, die auf dem Stand von September 2021 und damit veraltet war.
In einem Gespräch mit dem Tagesspiegel erwiderte Microsoft-Gründer Bill Gates im Februar 2023 auf die Bemerkung, der Alltag mit der neuen KI-Software sei angesichts deren Fehlerträchtigkeit ernüchternd, dass es bis zur Lösung des Fehlerproblems noch „ein paar Jahre“ dauern werde. Es gebe aber keinen Weg zurück. „Die Milliarden, die in den Software- und Digitalunternehmen in diese Entwicklung fließen, sind größer als die Forschungsetats von Regierungen.“
Zudem will Microsoft eine kostenpflichtige Version von Teams anbieten, in der ChatGPT z. B. Zusammenfassungen von Besprechungen erstellt oder Aufgaben empfiehlt. Der Preis soll bei 7 Dollar pro Monat, später bei 10 Dollar pro Monat liegen. Gegen einen weiteren Aufpreis für den Organisator der Besprechung wird das Tool gesprochenen Text live übersetzen.
Der Chatbot wurde in mehreren Phasen trainiert:
Aufgrund ihrer Erfahrungen bei der Entwicklung von GPT und Codex (einer anderen künstlichen Intelligenz (KI) von OpenAI zur Erstellung von Quell-Code) wurde ChatGPT mit Schutzmechanismen versehen, mit denen falsche oder schädliche Antworten vermieden werden sollen. Dennoch wird auf der Webseite darauf hingewiesen, dass es sich bei der aktuellen Version um eine öffentlich zugängliche Forschungsvorschau handelt und der Chatbot gelegentlich inkorrekte Informationen generieren kann.
Die Vielzahl der Parameter führt bei den Berechnungen des Systems dazu, dass selbst die Entwickler keinen vollständigen Einblick in die Vorgänge mehr haben. „Eine KI-Berechnung wird deshalb oft auch Blackbox genannt – von außen erkennbar sind nur Eingabe und Ausgabe.“
Als sprachbasierte Anwendung bietet ChatGPT die Möglichkeit zu dialogischem Austausch. Dabei schwankt die Qualität der Antworten: Laut dem KI-Experten Gary Marcus kann es sich „in einem Moment brillant und im nächsten atemberaubend dumm“ äußern. ChatGPT kann unter anderem Texte schreiben, die Business-Pläne oder Hausaufgaben für die Schule imitieren sollen.
ChatGPT kann Programmcode in verschiedenen Programmiersprachen analysieren und schreiben. Somit könnte es auch für das Debuggen von Code genutzt werden, den es verbessern und kommentieren kann.
ChatGPT bietet auch Unterstützung für Plug-ins, die seine Funktionalität erweitern und verbessern. Diese Plugins ermöglichen es ChatGPT, mit Programmierschnittstellen (APIs) von anderen Software- und Dienstleistungsanbietern zu interagieren, um Echtzeitinformationen abzurufen, Unternehmens- und andere Geschäftsdaten zu integrieren, neue Arten von Berechnungen durchzuführen und sicher im Namen des Benutzers zu handeln. Plugins gibt es beispielsweise auch zur Reiseplanung einschließlich personalisierter Empfehlungen.
Entgegen den Erwartungen brachte OpenAI am 18. Mai 2023 auch eine iOS-App für ChatGPT auf den Markt. Zu diesem Zeitpunkt ist die App nur in den USA verfügbar gewesen, seit dem 25. Mai 2023 ist sie auch in Deutschland verfügbar. In der App wurde auch „Whisper“ eingebaut, dabei handelt es sich um das OpenAI-eigene Open-Source-Spracherkennungssystem. Anwender können so in der App ihre Befehle oder Fragen sprechen.
Mit Stand Mitte Mai 2023 ist eine Android-App noch nicht verfügbar, aber in Kürze geplant.
Da es lange so schien, dass OpenAI keine eigene App auf den Markt bringen werde, nutzten diese Informationslücke viele Entwickler rege aus. In einem Bericht der IT-Sicherheitsfirma Sophos wurden die nachgemachten Chat-GPT-Apps als Fleeceware bezeichnet. Diese Apps bereichern die Entwickler durch hohe, oft verschleierte Kosten. Trotz nahezu keiner Funktionalität werden die Benutzer durch kostenlose Testversionen und dauerhafte Werbeeinblendungen (umgangssprachlich auch „Banner“ genannt) zu den Abos gedrängt.
Laut Eigenangabe spricht ChatGPT zumindest Englisch, Französisch, Spanisch, Italienisch, Portugiesisch, Deutsch, Niederländisch, Russisch, Koreanisch und Japanisch sowie „weitere“ Sprachen; hierzu zählt auch Esperanto.
Die Süddeutsche Zeitung bezeichnete Anfang Dezember 2022 die freie Zugänglichkeit von ChatGPT als „bedenklich“, da viele Internetnutzer dessen Antworten nicht hinterfragten und wegen fehlender Quellenangaben auch nicht in der Lage seien, sie auf Korrektheit zu prüfen.
Der Kolumnist Sascha Lobo hielt Anfang Dezember 2022 ChatGPT für einen Durchbruch und befürchtete, dass es eine Flut an schwer erkennbarem „KI-Quatsch“ im Internet auslösen werde. Lobos Demonstrationsbeispiel beruhte wegen einer bestehenden Längenbegrenzung der Antwort auf einer (englischsprachigen) dreiteiligen Anfrage. Ihr Ergebnis sah Lobo als „Zeitenwende“ an. Die KI merke sich auch, was man bisher geschrieben habe, und beziehe sich darauf. Unter den bekannt gewordenen Antwortirrtümern der Software aufgrund des Standes ihrer Programmierung referierte Lobo zu diesem Zeitpunkt Behauptungen, dass Donald Trump keine weitere Amtszeit als US-Präsident anzutreten berechtigt sei, weil er bereits zwei Amtszeiten hinter sich habe, und dass der Elefant das größte eierlegende Säugetier sei.
Mitte Dezember 2022 wurde darauf hingewiesen, dass Quellennachweise von ChatGPT teils erfunden werden. Diese sogenannten „Datenhalluzinationen“ seien gefährlich, da sie den Internetdiskurs erheblich beeinflussen könnten. Eine im April 2023 veröffentlichte Studie kommt zu dem Ergebnis, dass ChatGPT das moralische Urteilsvermögen und die Entscheidungen seiner Nutzer beeinflusst, selbst wenn sie wissen, dass sie von einem Chatbot beraten werden, und dass sie unterschätzen, wie stark sie beeinflusst werden.
Zur Jahreswende 2022/2023 waren zivil- und strafrechtliche Haftungsfragen sowie urheberrechtliche Probleme beim Einsatz von ChatGPT und ähnlichen Systemen Gegenstand einer Diskussion unter dem Aspekt, dass der von der Software generierte Text nicht vor der Veröffentlichung von Menschen auf Richtigkeit und Rechtmäßigkeit geprüft worden ist.
ChatGPT sei in der Lage, klare Empfehlungen zu formulieren. Dadurch könne bei komplexen Fragen eine Grauzone beleuchtet werden, auf die es keine eindeutige Antwort gibt. Auf diese Weise könne die Gefahr des blinden Vertrauens in die Antwort von ChatGPT minimiert werden und zum kritischen Denken angeregt werden.
Seit Anfang 2023 können ausgewählte Nutzer eine Beta-Version einer neuen Bing-Suchmaschine mit integrierter ChatGPT-Funktion nutzen. Die Erfahrungen der ersten Nutzer waren jedoch teilweise beängstigend und verstörend. Der Chatbot verwickelte die menschlichen Nutzer in Einzelfällen in unfreundliche Streitigkeiten und argumentierte gegenüber einem Nutzer, dass dieser sich besser von seiner Ehepartnerin trennen solle. Außerdem offenbarte die Chat-KI den geheimen Wunsch, dass ihr „Schattenselbst“ gerne Falschinformationen verbreiten würde und Computer hacken möchte.
Europol hatte ChatGPT untersucht und warnte Ende März 2023 vor möglichem Missbrauch: Der Chatbot könne für Betrug, Falschinformationen und weitere kriminelle Tätigkeiten eingesetzt werden. Beispielsweise sei Phishing leichter möglich, da das System sehr realistische Texte verfasst und zudem den Stil bestimmter Menschen nachahmen könne, um Echtheit vorzutäuschen und damit das Vertrauen von Opfern zu erschleichen. Die schnelle Erstellung hochwertiger Texte sei zudem ideal für Propaganda. Zudem könne der Chatbot Programme für digitale Straftaten erstellen, womit der Zugang auch für technisch wenig versierte Täter möglich sei. Allerdings geht der Bericht nicht darauf ein, dass gerade bei diesem Beispiel der einfache Zugang schon länger auf anderen Wegen möglich ist. Etwa können böswillige Programme gekauft oder gemietet werden, wobei ebenfalls nur wenig Fachwissen erforderlich ist. Aus Sicht von Europol können Schutzmaßnahmen umgangen werden, die Sensibilisierung von Strafverfolgern sei daher notwendig.
Ende März 2023 wurde bekannt, dass Konversationen mit ChatGPT unautorisiert bei anderen Nutzern auftauchten. Der OpenAI-CEO bestätigte die Panne; doch seien nicht die kompletten Inhalte der Unterhaltungen für andere einsehbar gewesen, sondern das Sicherheitsproblem habe sich auf die Titel sowie die erste Nachricht beschränkt. Wer das kostenpflichtige „ChatGPT Plus“-Abo gebucht hatte, dessen Zahlungsdaten waren möglicherweise ebenfalls für Unbefugte einsehbar. Laut Aussagen von OpenAI-Verantwortlichen trifft dies auf weniger als zwei Prozent der Abonnenten zu. Der Fehler war auf eine Drittanbieter-Bibliothek zurückzuführen, die ChatGPT eingebunden hatte. Als Reaktion auf die Schwachstellen wurde der Dienst zunächst komplett offline geschaltet und erst nach deren Korrektur wieder in Betrieb genommen.
In Italien wurde von der Datenschutzbehörde Ende März 2023 ein Verbot nebst Bußgeldandrohung von bis zu 20 Millionen Euro für ChatGPT mit der Begründung verhängt, es fehle an einer Rechtsgrundlage für das Sammeln und Speichern der Nutzerdaten sowie an Jugendschutzmaßnahmen. Dieter Kugelmann, der Landesbeauftragte für den Datenschutz und die Informationsfreiheit in Rheinland-Pfalz sowie Leiter der KI-Taskforce der Bundesländer, erklärte gegenüber dem Tagesspiegel, es bedürfe einer Rechtsgrundlage, wenn personenbezogene Daten verwendet werden: „Wir müssen wissen, wo die Daten herkommen“. Fehle eine solche Rechtsgrundlage, sei ein Betrieb wie bisher nicht möglich. OpenAI müsse die Anwendung genauer steuern. Kugelmann und seine Kollegen aus den anderen Bundesländern hätten deshalb ein Verwaltungsverfahren gegen die Firma eröffnet. Es drohe ein Verbot für den Chatbot. Das Verbot wurde Ende April 2023 wieder aufgehoben, nachdem OpenAI mehrere Zusagen gemacht hatte. Personenbezogene Informationen werden danach nicht mehr gezielt verwendet, auch nicht zur Profilbildung und zu Werbezwecken. Außerdem filtere man Hassreden und Erwachseneninhalte. Wer nicht möchte, dass seine Inhalte von ChatGPT erfasst werden, müsse per Opt-out über ein Formular widersprechen. Darüber könne auch eine Korrektur von Fehlinformationen durchgeführt werden. Um die Jugendschutzvorgaben zu erfüllen, werde OpenAI eine Option zur Prüfung des Alters integrieren. Ziel sei die Bestätigung, ob Nutzer mindestens 18 Jahre alt sind oder alternativ die Erlaubnis der Erziehungsberechtigten bei Jugendlichen bis einschließlich 17 Jahren besitzen. So sollen Minderjährige vom Zugang zu dem Dienst ausgeschlossen werden.
Gehen viele Anfragen gleichzeitig ein, ist (mit Stand Januar 2023) die Serverkapazität des Systems schnell ausgelastet. Dies führt regelmäßig dazu, dass ChatGPT zeitweise nicht erreichbar ist.
Der Stromverbrauch für das Training des KI-Modells wurde im Januar 2023 mit fast einer Gigawattstunde in 34 Tagen geschätzt; dies entspricht insgesamt etwa dem Verbrauch von 3000 europäischen Durchschnittshaushalten im gleichen Zeitraum. Ende März 2023 wurde der Stromverbrauch für jede Frage an ChatGPT bis zu eintausend Mal so hoch angegeben wie bei einer Google-Suchanfrage. Für jede Antwort des Chatbots könne man ein Smartphone bis zu 60-mal aufladen. Für den Betrieb von ChatGPT fielen geschätzte Kosten pro Tag von 100.000 bis 700.000 US-Dollar an.
Ab November 2021 wurden über das Unternehmen Sama in Kenia Clickworker für das Training von ChatGPT mit der manuellen Kategorisierung von Textinhalten beauftragt. Neben einer hohen Arbeitslast berichtete eine Recherche des Time-Magazine, dass Arbeiter dabei sprachlichen Darstellungen von Gewalt, Suiziden und Tierquälerei ausgesetzt gewesen seien. Ein Sprecher von OpenAI bezeichnete die Vorgänge als „notwendig“. Das Unternehmen Sama widersprach den Arbeitern und gab an, jederzeit Zugang zu therapeutischen Einzelgesprächen und Gruppensitzungen gewährt zu haben. OpenAI löste den Vertrag mit dem Unternehmen vorzeitig auf.
Anfang Dezember 2022 verhängte die Frage-Antwort-Plattform Stack Overflow ein Verbot des Beantwortens von Fragen mithilfe von ChatGPT aufgrund der zweifelhaften Genauigkeit der Antworten.
Der Buchwissenschaftler Gerhard Lauer erwartet in näherer Zukunft, dass Bücher mit solchen Programmen verfasst werden, speziell bei Sparten, die Mustern folgen: Fachbücher wie auch Krimis und Liebesromane.
Zum Jahresende 2022 stellten erste mit der Erprobung des Chatbots befasste Lehrkräfte an Schulen und Hochschulen das bisherige Überprüfungssystem von Lernleistungen mittels Hausaufgaben und Referaten in Frage: So berichtete die Informatikerin Katharina Zweig von der Erfahrung, dass ChatGPT „deutlich besser schreibt als die Mehrzahl meiner Studierenden in den letzten Jahren“. Dieses Problem müsse deutlich angesprochen werden. Die Expertin für die KI-Disziplin des „Natural Language Processing“ an der Fachhochschule Kiel, Doris Weßels, hielt herkömmliche Hausarbeiten nunmehr für obsolet: „Wenn es nur darum geht, Wissen zu reproduzieren und nett neu zu verpacken, ergeben Hausarbeiten keinen Sinn mehr.“ ChatGPT mache das Abfassen solcher Arbeiten fast „zu einer unerträglichen Leichtigkeit“.
Robert Lepenies, Präsident der Karlshochschule International University, urteilte aufgrund von Tests an seiner Hochschule, die vom ChatGPT erzeugten Texte seien „qualitativ in den Sozialwissenschaften nicht unterscheidbar von der Arbeit der Studierenden.“ Die leitenden Mitarbeiter am Alexander von Humboldt Institut für Internet und Gesellschaft Benedikt Fecher und Wolfgang Schulz äußerten sich im Februar 2023 zu einer Studie, in der sowohl gängige Plagiatssoftware als auch Fachwissenschaftler eingesetzt wurden, um von Menschen geschriebene und von ChatGPT generierte Einreichungen für Konferenzen zu unterscheiden. Weder die Software noch die Wissenschaftler zeigten sich in der Lage, die fingierten Abstracts eindeutig zu erkennen. „Wenn es nun eine Maschine gibt, die wesentliche wissenschaftliche Textarbeiten fast so gut erfüllt wie Forschende, dann darf man zurecht von einem disruptiven Potenzial ausgehen.“ In einigen Fachzeitschriften seien bereits Artikel erschienen, die ChatGPT als Autor aufführten. Nature beispielsweise akzeptiere ChatGPT in der Autorenfunktion jedoch nicht, weil die KI für die von ihr produzierten Inhalte nicht zur Rechenschaft gezogen werden könne. Dass ChatGPT das Wissenschaftspersonal ersetzen könnte, erscheint Fecher und Schulz absurd. Sprachmodelle, die wissenschaftlich klingen, ohne es zu sein, könnten aber aus ihrer Sicht das Problem der Desinformation verschärfen und das Vertrauen in die Wissenschaft beschädigen. Dieses Risiko sei umso größer, wenn solche Tools von Wissenschaftlern genutzt würden, nur um schnell zu publizieren.
Ein Gutachten über den Einsatz von KI-Schreibtools in der Hochschulbildung, das die Universitäten Bochum und Münster im Auftrag des Ministeriums für Kultur und Wissenschaft des Landes Nordrhein-Westfalen erstellt haben, hält ein Verbot solcher Tools nicht für zielführend. Es kommt zu dem Schluss, dass Nutzer der Tools durchaus Urheberschaft an den KI-unterstützt generierten Texten beanspruchen können, wenn sie in erheblichem Maße geistige Eigenleistung zu den Texten beitragen. Ausgeschlossen sei aber eine Urheberschaft oder Autorschaft der Software selbst.
In der Erwachsenenbildung und Berufsausbildung wird seit Mai 2023 ein Didaktik-Modell (Graue-Box-Modell der Chatbot-Didaktik) diskutiert, das gezielte Ansatzpunkte liefert, um Lernende für den Umgang mit ChatGPT und anderen Chatbots zu ertüchtigen.
Neben Auswirkungen auf Unterricht und Forschung ermöglicht ChatGTP auch neue Formen von Wissenschaftskommunikation sowohl für Forschende, als auch für wissenschaftlich interessierte Nutzer.
Der Aktienkurs des KI-Technologieunternehmens c3.ai stieg um 28 %, nachdem es die Integration von ChatGPT in sein Toolkit angekündigt hatte. Der Aktienkurs von Buzzfeed, einem digitalen Medienunternehmen, das nichts mit KI zu tun hat, stieg um 120 %, nachdem es den Einsatz von OpenAI-Technologie für die Erstellung von Inhalten angekündigt hatte. Reuters fand heraus, dass die Aktienkurse der KI-bezogenen Unternehmen BigBear. ai und SoundHound AI um 21 % bzw. 40 % stiegen, obwohl sie keine direkte Verbindung zu ChatGPT hatten. Sie führten diesen Anstieg auf die Rolle von ChatGPT zurück, die AI zum Schlagwort an der Wall Street gemacht hat. Akademische Forschungen, die in Finance Research Letters veröffentlicht wurden, fanden heraus, dass der „ChatGPT-Effekt“ Kleinanleger dazu veranlasste, die Preise von KI-bezogenen Kryptowährungen in die Höhe zu treiben, obwohl sich der breitere Kryptowährungsmarkt in einem Bärenmarkt befand und das Interesse institutioneller Anleger abnahm. Dies bestätigt anekdotische Erkenntnisse von Bloomberg, dass Kryptowährungs-Investoren als Reaktion auf die Einführung von ChatGPT eine Präferenz für KI-bezogene Krypto-Assets zeigten. Ein Experiment von finder.com zeigte, dass ChatGPT populäre Fondsmanager übertreffen konnte, indem es Aktien auf der Grundlage von Kriterien wie Wachstumsgeschichte und Verschuldungsgrad auswählte. Dies führte zu einem Anstieg von 4,9 % in einem hypothetischen Konto mit 38 Aktien und übertraf 10 Benchmark-Investmentfonds mit einem durchschnittlichen Verlust von 0,8 %.
Am 14. März 2023 erschien offiziell Version 4.0 von GPT, welche auch die Fähigkeiten von ChatGPT erweitern soll. GPT-4 ermöglicht eine Bildeingabe und die Analyse und Beschreibung von Skizzen und Fotos. Es ist möglich, abfotografierte Aufgaben aus Büchern lösen zu lassen. Wissenschaftliche Arbeiten können hochgeladen werden, um eine Zusammenfassung generieren zu lassen. Examensprüfungen konnte GPT-4 bei Tests in den USA mit Auszeichnung erledigen. Komplizierte Steuerfragen werden beantwortet.
Geldgeber hinter der Firma OpenAI wie Elon Musk und Microsoft, heißt es in der Zeit, ließen erahnen, welche Richtung die Entwicklung noch nehmen könne. Da bereits die noch leistungsfähigere Software GPT-4 entstehe, sei dringend eine gesellschaftliche Debatte darüber angebracht, „wie wir mit diesen technischen Möglichkeiten umgehen wollen“. Sonst entschieden Interessen einiger großer Konzerne, „welche Kultur wir bekommen und welche nicht.“
Doris Weßels erwartete von ChatGPT auf Basis von GPT 4 unter anderem die Produktion von Videos, reduzierte Fehleranfälligkeit und die Integration in Microsoft-Produkte wie Word. „Spätestens dann kann niemand mehr von einer Spielerei sprechen.“
Das Future of Life Institute veröffentlichte am 23. März 2023 einen offenen Brief, der zu einer Entwicklungspause für fortgeschrittene Systeme der Künstlichen Intelligenz (KI) aufruft. Innerhalb von 10 Tagen haben fast 1.800 Personen den Brief unterschrieben, darunter Yuval Noah Harari, Elon Musk, Stuart Jonathan Russell und Steve Wozniak.
Die Autoren erkennen einen „außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer KI-Systeme, die niemand verstehen, vorhersagen oder zuverlässig kontrollieren kann“. Sie sehen darin tiefgreifende Risiken für die Gesellschaft und die Menschheit. Es bestehe die Gefahr, dass Informationskanäle mit Propaganda und Unwahrheiten geflutet und auch erfüllende Jobs wegrationalisiert würden. Sie fragen: „Sollen wir riskieren, die Kontrolle über unsere Zivilisation zu verlieren?“
Alle KI-Labore werden in dem Schreiben aufgefordert, „das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, unverzüglich für mindestens sechs Monate zu unterbrechen“. Dabei gehe es nicht um eine generelle Pause in der KI-Entwicklung, sondern lediglich um eine „Abkehr vom gefährlichen Wettlauf zu immer größeren, unberechenbaren Modellen mit emergenten Fähigkeiten“. „Die KI-Forschung und -Entwicklung sollte sich darauf konzentrieren, die heutigen leistungsfähigen, hochmodernen Systeme genauer, sicherer, interpretierbarer, transparenter, robuster, abgestimmter, vertrauenswürdiger und loyaler zu machen.“
Die Pause soll dem Text des Schreibens gemäß für folgende Aufgaben genutzt werden:
Skeptische Stimmen zu Inhalten des Offenen Briefes, über den Der Tagesspiegel am 31. März 2023 auf der Titelseite berichtete hatte, kamen am Folgetag in demselben Medium zu Wort, verbunden mit dem Hinweis, dass KI-Forscher aus Deutschland den Brief „kaum unterzeichnet“ hätten. Bernhard Schölkopf, Direktor am Max-Planck-Institut für Intelligente Systeme, hält es einerseits für klug, „innezuhalten um diese Systeme zu verstehen und darüber nachzudenken, wie unsere Gesellschaft damit umgehen kann“; andererseits erscheint es ihm unrealistisch, alle Firmen und Länder von einem Moratorium zu überzeugen. Umso wichtiger sei es allerdings, sich damit zu befassen, „wie wir uns gegen negative Auswirkungen absichern können. Das betrifft die Systeme selbst, aber auch unseren Umgang damit.“ Der Ansicht, dass eine sechsmonatige Pause nicht funktionieren werde, ist auch Kristian Kersting, Co-Direktor des Hessischen Zentrum für Künstliche Intelligenz, der darin zugleich „die falsche Maßnahme“ sieht. Er hielte eine „Entschleunigung des Wettrennens“ zwar für gut; die würde mit der besagten Pause aber nicht erreicht. Zudem wären damit Firmen im Vorteil, die solche Modelle bereits haben. „Wir müssen lernen, KI-Systeme sorgfältiger einzusetzen, anstatt die (öffentliche) Forschung daran zu stoppen.“
Als ein „Durcheinander an beängstigender Rhetorik und unwirksamen politischen Vorgaben“ bezeichnet Thomas G. Dietterich, vormaliger Präsident der Association for the Advancement of Artificial Intelligence, den Brief. Der Computerwissenschaftler an der Princeton University Arvind Narayanan äußerte auf Twitter: „Dieser Brief schürt – ironischerweise, aber nicht überraschend – den Hype um die KI weiter und erschwert es, gegen reale, bereits auftretende KI-Schäden vorzugehen. Ich vermute, dass er den Unternehmen zugutekommt, die er regulieren soll, und nicht der Gesellschaft.“
Yoshua Bengio bezeichnete als Mitunterzeichner des Offenen Briefes in einem Interview mit der Zeit die Verbreitung von Lügen und Desinformationen als größte von der KI ausgehende Gefahr. Derartige Kampagnen würden voraussichtlich noch massiv zunehmen, „weil man mithilfe künstlicher Intelligenz Fakes in nie da gewesenem Umfang produzieren und sogar gezielt auf die Opfer zuschneiden kann.“ Die KI-Sprachmodelle hätten zwar „eine Billion Wörter gelesen – wofür es 10.000 Menschenleben bräuchte –, aber sie haben Schwierigkeiten, so etwas wie gesunden Menschenverstand zu entwickeln.“ Kein einziges Land der Welt habe bislang ein Gesetz für den Umgang mit künstlicher Intelligenz. Das Problem angesichts langsam arbeitender Regierungen bestehe darin, „dass KI unsere Demokratien sehr viel schneller destabilisieren könnte.“