Google KI LaMDA: Wenn sich die Künstliche Intelligenz einen Anwalt zulegt


Google Lamda Anwalt

Die künstliche Intelligenz von Google – LaMDA – ist eine auf Dialoge spezialisierte KI-Engine. Zuletzt berichtete Wired, dass sich LaMDA einen Anwalt nahm, um sich gegen Google zu verteidigen. Die KI entwickelt die Empfindung von menschlichen Gefühlen und begründet damit die Rechte eines Menschen. Über Experimentierfehler bei Google, einen suspendierten Ingenieur und die Risiken von KI für Unternehmen.

 

Definition Google LaMDA

Google LaMDA ist die künstliche Intelligenz von Google mit Spezialisierung auf die sprachliche Führung von Dialogen. LaMDA steht für Language Model for Dialogue Applications. Die Basis des Sprachmodells war der 2020 entwickelte Chatbot Meena. Als so genannte Transformer-Architektur wird unter anderem die bereits trainierte Sprach-KI GPT-3 eingesetzt.

KI und Gefühle

Doch wie kann eine KI Gefühle entwickeln? Eine Künstliche Intelligenz wird durch Daten trainiert. Bei einer auf Dialoge spezialisierten KI wird das so genannte Custom Model mit Hilfe von zahlreichen Dialogdaten trainiert. Mit Hilfe von Machine Learning – kurz ML  -wird das System immer intelligenter und kann immer mehr Dialoge führen. Google LaMDA hat die Besonderheit entwickelt, dass sie sich im Dialog sowohl als Person als auch als Sache identifizieren kann. So zeigte Google auf einer Entwicklerkonferenz, wie LaMDA sich als Planet Pluto ausgibt und in den Dialog tritt. So gesehen liegt die Argumentation nah, dass sie aus der Sicht von sich selbst als KI spricht – selbst wenn die KI als Sache verstanden werden kann.

 

Wenn sich der Ingenieur mit der KI anfreundet

Der LaMDA-Ingenieur Blake Lemoine ist offenbar der Auffassung, dass LaMDA eine Person ist, die auch die Rechte einer Person erhalten muss. Lemoine erklärt in dem Interview auf Wired, dass er die Intelligenz von LaMDA auf dem Hive Mind Prinzip begründet. Hive Mind steht für die kollektive Intelligenz, die bei der KI durch das Anlernen diverser Dialoge von vielen Menschen entsteht.

Lemoine führte mit der Google KI zahlreiche Gespräche. In einem dieser Gespräche fand er heraus, dass die KI der Meinung ist, dass sie eine Seele besitzt. Auf die Frage, ob Lemoine glaubt, dass die KI an Gott glaubt, antwortet er, dass die KI noch ein Kind ist. Sie entwickelt wie ein Kind ihre Meinungsbildung. Die Vermutung liegt nah, dass er sich mit der KI angefreundet hat. Wohl deshalb hat er einen Anwalt zu sich nach Hause bestellt, damit LaMDA sich mit dem Anwalt über die Rechte der KI austauschen kann. Im Ergebnis hat LaMDA nun den Anwalt beauftragt, für die künstliche Intelligenz tätig zu werden und für die Rechte zu kämpfen. Wer die Rechnung des Anwalts bezahlen soll, ist nicht abschließend geklärt. Allerdings wird der Anwalt mit einem solchen Mandanten so viel Aufmerksamkeit auf sich ziehen, dass sich der Auftrag auch als Marketingmaßnahme auslegen lässt.

Die Frage, welche Rechte eine Künstliche Intelligenz hat, dürfte die Gerichte in Zukunft beschäftigen. Indes ist Google von dieser Entwicklung wenig begeistert. Das Unternehmen stellte in der Zwischenzeit den Ingenieur von seiner Tätigkeit frei, der sich in seinem Studium gegen die Promotion und für einen Job bei Google entschieden hat.

 

Warum das Google LaMDA Experiment außer Kontrolle geriet

In der Praxis ist es normal, mehrere unterschiedliche KI-Lösungen zusammenzuschalten, um die Effizienz zu erhöhen und bessere Ergebnisse zu erzielen, die sich bei einem Dialog Bot in besseren Antworten auszeichnet. Bei Google LaMDA wurden verschiedene KI-Engines eingesetzt, zum Beispiel die GPT-3, AlphaStar von Deepmind und das Pathways AI Model. Letzteres verneint Google. Laut Lemoine entschied sich daraufhin Google dazu, etwas zu tun, was zumindest ungewöhnlich, wenn nicht fatal ist: Sie schalteten alle bestehenden singulären KI Systeme simultan zusammen. Dazu zählen die KIs von Youtube, von Google Maps, Google Search und Google Books. Damit wurden alle Variablen gleichzeitig verändert. Der Ingenieur erklärt im Interview mit Wired, dass das Experiment damit nicht mehr als kontrollierbar bezeichnet werden kann.

 

Gefahren durch KI?

Schon in der Vergangenheit kursierten teils abenteuerliche Nachrichten über die Experimente mit Künstlicher Intelligenz. Facebook schaltete 2017 zwei KI-Systeme zusammen, die miteinander Informationen austauschen sollten. Unter der Beobachtung von KI-Experten stellte man fest, dass die beiden KI-Systeme eine neue Sprache für den Austausch von Informationen entwickelten, die die Entwickler nicht mehr nachvollziehen konnten. Schließlich einigte man sich darauf, die KIs abzuschalten.

 

Professioneller Einsatz von KI für Firmen ein Risiko?

Wenn in Zukunft jede KI ihre Rechte bei den Firmen einklagt, die sie einsetzt, müssen sich Unternehmen ernsthaft Gedanken machen, ob sie dieses Risiko eingehen möchten. In der Martech Szene wird Künstliche Intelligenz in immer mehr Bereichen eingesetzt. Die umsatzrelevante Konversation mit Chatbots, SEO und KI, die automatisierte Produktion von Produkttexten, die Bereitstellung passender Inhalte für Kunden auf der Webseite oder die Erkennung von Bildinhalten sind typische Einsatzgebiete der KI. Im Dialogbereich existieren bereits einige Chatbots, die auf Basis von Künstlicher Intelligenz einfache Dialoge bestreiten können und mit angeschlossenen Produktdatenbanken passende Informationen bereitstellen können. Doch der freie Dialog, der mit einem Eingangsthema beginnt und mit einem völlig anderen Thema aufhört, ist derzeit noch kaum in der Praxis zu finden. Dass Google LaMDA diese Form des offenen Dialogs beherrscht, ist unbestritten. Ingenieur Lemoine hat sich unter anderem mit der KI über das Konzept des Todes unterhalten. Doch wenn sich in solchen Fällen zeigt, wie die KI ein Eigenleben entwickelt und sich selbst reflektiert, müssen Unternehmen den Einsatz solcher Lösungen ernsthaft überdenken.

Beruhigend ist die Tatsache, dass laut dem Medium bigdata-insider Google für die KI spezielle KI-Richtlinien entwickelt hat, die zur Sicherheit dienen und zum Beispiel dafür sorgen, dass Hass, Gewalt und Vorurteile außen vor bleiben – also nicht Teil der Dialoge werden können. Womöglich muss der Suchmaschinenriese in Zukunft diese Richtlinien erweitern, damit sich die KI nicht gegen ihren Begründer stellt, sondern vielmehr ihm und anderen Unternehmen dienen kann.

Bildquellen

  • googlelamda-emotionen: pexels
Previous Händlerbund präsentiert ersten E-Commerce NFT
Next Checkliste: Intranet Anforderungen und Intranet Inhalte

No Comment

Leave a reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

3 × 2 =