Google-CEO warnt davor, dass Chatbots manchmal Unsinn verbreiten

„Die Art von künstlicher Intelligenz, von der wir sprechen, kann manchmal zu etwas führen, das wir ‚Halluzination‘ nennen: Ein Gerät gibt eine überzeugende, aber völlig fiktive Antwort“, sagte Google-Suchchef Prabhakar Raghavan in einer Erklärung. ein Treffen mit der deutschen Zeitung Welt am Sonntag.

Die Menschen sollten immer wachsam mit den Antworten sein, die Chatbots mit Hilfe von KI liefern, sagt der CEO. Ihm zufolge ist es daher wichtig, dass Benutzer über Tools verfügen, um Informationen zu überprüfen, z. B. um die Quellen anzugeben, die bei der Erstellung einer Antwort verwendet wurden. Raghavan: „Wir haben einen sehr hohen Standard. Wir wollen bei Chatbots führend sein, was die Integrität der Informationen und die Verantwortung betrifft, die wir dafür übernehmen. Nur so können wir das Vertrauen der Öffentlichkeit bewahren.“

Fehlstart für Google Bard

Letzte Woche hat Google seinen KI-Chatbot namens Bard angekündigt, der dem viel diskutierten ChatGPT von OpenAI Konkurrenz machen soll. Microsoft hat in der vergangenen Woche auch einen Chatbot für seine Suchmaschine Bing eingeführt, der eine verbesserte Version des GPT-Sprachmodells von OpenAI verwendet. Microsoft hat bereits Milliarden in OpenAI investiert.

Nachdem Bard in einer Google-Anzeige eine falsche Antwort gegeben hatte, brach der Aktienkurs des Unternehmens ein. Investoren sehen im Aufstieg von Chatbots eine Bedrohung für die Suchmaschinendominanz von Google.

Mit Chatbots erhalten Benutzer sofortige Antworten auf ihre Fragen, anstatt sich in den Suchergebnissen durch Websites klicken zu müssen. Für Google sind Anzeigen in den Suchergebnissen das wichtigste Erlösmodell. Bard kann derzeit nur von einer kleinen Gruppe lizenzierter Tester verwendet werden.

Google-Mitarbeiter wütend

Intern führte Bards gescheiterte Ankündigung dazu Unzufriedenheit der Google-Mitarbeiter, der der Meinung war, dass das Unternehmen den Chatbot zu früh angekündigt hatte. „Bards Start und Schüsse waren überstürzt, schlampig und kurzsichtig“, schrieb ein Google-Mitarbeiter laut CNBC auf einem internen System. Die Kritik folgt auf Googles jüngsten Abbau von 12.000 Stellen.

Laut Raghavan verspürte Google „die Dringlichkeit“, Bard zu diesem Zeitpunkt zu demonstrieren. „Aber wir spüren auch die große Verantwortung. Wir wollen die Öffentlichkeit auf keinen Fall irreführen“, sagte der Vorstandsvorsitzende der Deutschen Zeitung.

Die gigantischen Sprachmodelle hinter Chatbots hindern Menschen laut Raghavan daran, jedem nur denkbaren Verhalten des Systems zu folgen. „Aber wir wollen es in einem so großen Umfang testen, dass wir letztendlich mit den Statistiken zu den Antworten auf Faktenchecks zufrieden sind.“

Voreingenommenheit und schädliche Nutzung

Die rasche Popularität von Sprach-Bots wie ChatGPT und KI-Bilderzeugungssystemen hat Bedenken hinsichtlich der Verbreitung von Fehlinformationen und möglichen Urheberrechtsverletzungen geweckt. US-Politiker hatten letzten Monat einen bei OpenAI beharrte um sicherzustellen, dass die KI-Systeme des Unternehmens keine Verzerrungen enthalten, die dazu führen könnten Diskriminierungwie rund um Bewerbungen und Wohnen.

Auch der US-Gesetzgeber befürchtet, dass KI-Systeme wie ChatGPT von verfeindeten Gruppen oder Staaten missbraucht werden könnten. „Gegner, deren Interessen mit denen der Vereinigten Staaten in Konflikt stehen, könnten diese Systeme nutzen, um Informationen zu generieren, die falsch oder schädlich sein könnten“, sagte Anwalt Andrew Burt. bei Reuters. Er berät sich mit US-Gesetzgebern, die an neuen KI-Chatbot-Vorschriften arbeiten.

Mira Murati, CTO von OpenAI, erkenne dass Regierungen und Politiker eine wichtige Rolle bei der Entwicklung von KI spielen. „Wir brauchen viel mehr Input, auch von Regulierungsbehörden und Regierungen. Es ist sicherlich nicht zu früh für Regierungen, sich an der Diskussion zu beteiligen. Angesichts der Auswirkungen, die diese Technologien haben werden, ist es sehr wichtig, dass sich alle beteiligen.“

ChatGPT kann manipuliert werden

ChatGPT-Benutzer haben kürzlich entdeckt, dass das System manipuliert werden kann, danach gibt der Chatbot kontroverse Meinungen und Schimpfwörter ab und gibt sogar Ratschläge zu illegalen Aktivitäten. Diese bösartige ChatGPT-„Persona“ ist bekannt als DANNkurz für ‚jetzt alles tun‚.

Diese Form des Missbrauchs hat nun auch der Chatbot von OpenAI Aufmerksamkeit von Microsoft gezeichnet. Ein leitender Angestellter der Azure-Cloud-Plattform von Microsoft hat letzte Woche auf einer Cybersicherheitskonferenz darauf verwiesen. Manipulierte Chatbots wie DAN würden „in naher Zukunft eine der Herausforderungen für Cybersicherheitsexperten sein“, sagte er.

Helfried Beck

„Analyst. Totaler Alkoholkenner. Stolzer Internet-Fan. Ärgerlich bescheidener Leser.“

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert