Spielen mit Handgranaten

Der Hype um KI-Anwendungen hat mit der Veröffentlichung der ersten Version von ChatGPT vor ziemlich genau drei Jahren begonnen. Mittlerweile ist die Nutzung der KI, genauer von Chatbots, die auf grossen Sprachmodellen aufbauen (auf diese wird im Folgenden Bezug genommen, wenn von „KI“ die Rede ist), an vielen Stellen „im Alltag angekommen“, auch wenn sich hier und da eine gewisse Ernüchterung breit macht.

Universelle Chatbots fangen schnell an zu fantasieren, wenn sie zu einem Thema in ihren Trainingsdaten nicht genug konkrete Informationen bekommen haben (und solche Themen haben wir im Alltag mehr als man denkt). Irgendwann ertappt man sich dabei, dass man die Zeit, die man vermeintlich für eine herkömmliche Recherche gespart hat, nutzlos damit zubringt, fehlerhaften Hinweisen oder Anweisungen nachzugehen.

Aber auch bei der konventionellen Recherche im Internet mittels klassischer Suchmaschine trifft man immer häufiger auf KI-generierte Inhalte mit entsprechend fragwürdigem Inhalt. Bei Produktvergleichen oder -tests bekommt man immer öfter KI-generierte, weitgehend sinnfreie Pseudo-Information aus Anbieter-Prospekten oder aus früheren, oft veralteten Berichten. Das ist hier vielleicht „nur“ nervig, in anderen Bereichen (z.B. Gesundheitsratgeber oder technische Anleitungen) kann das schnell richtig gefährlich werden. Das Internet als universelle Informationsquelle verändert sich, eine diesbezügliche Medienkompetenz wird immer wichtiger, zugleich anspruchsvoller – und irgendwann einfach zur Illusion.

Was mit der Einbettung von KI-Funktionen aber auch eingergeht, ist die immer stärkere Abhängigkeit von zentralen online-Diensten. Das ist zwar nicht unbedingt etwas neues (Alexa und Siri z.B. verstehen uns schon lange nur, wenn sie im Hintergrund mit den zentralen Sprachdiensten von Amazon oder Apple kommunizieren). Aber wenn es darum geht, Wissen, Funktionalität oder gar Entscheidungen an die KI-Dienste von wenigen Tech-Konzernen auszulagern, dann sollte man sich irgendwann einmal überlegen, wie sehr man deren Bossen vertrauen will, die einem kriminellen Präsidenten bis zum Hals in den Ar… kriechen?

Natürlich könnte man sich auch einmal fragen, warum alle so wild darauf sind, sich mühsame Denkarbeit von einem Chatbot abnehmen zu lassen. Ja, vordergründig spart es Zeit, wenn man „die KI“ einen Text zusammenfassen lässt. Aber jeder weiss, wie gross die Versuchung ist, die so erzeugte Zusammenfassung dann nicht auf Korrektheit zu prüfen. Habe ich den Ausgangstext überhaupt mal selbst richtig gelesen? Wenn nicht, kann ich über die Qualität der Zusammenfassung ja wenig bis gar nichts wissen. Aber vielleicht lese ich die Zusammenfassung eben auch gar nicht mehr selbst, sondern gebe sie einfach an andere weiter, die das dann irgendwie verarbeiten sollen. Dann hab ich es mir zwar sehr leicht gemacht und die inhaltliche Arbeit einfach wegdelegiert (nicht sehr nett, und in der Summe auch nicht unbedingt effizient). Aber gelernt habe ich dabei nichts. Oder bin ich intellektuell vielleicht gar nicht (mehr) in der Lage, konzentriert mit Texten zu arbeiten, oder mir neues Wissen anzueignen? Je öfter ich ersatzweise KI einsetze, desto weniger werde ich jedenfalls die betreffenden Fertigkeiten trainieren.

Menschen sind „faul“ – das ist eine Motivation für Automatisierung, sei es in der Produktion, im Haushalt oder auch im Bereich der IT. Der ungehinderte Zugang zu nicht perfekten, aber doch erstaunlich mächtigen KI-Werkzeugen für Jedermann fördert eine ungute, auf Dauer verhängnisvolle „Faulheit“ im Denken. Wir kennen das im Prinzip ja schon, seit wir mit unseren Smartphones ständig und überall online sind, und uns nichts mehr merken müssen. Jede (Wissens-) Frage lässt sich ad hoc durch Googeln beantworten, und die betreffende Information ist genauso schnell wieder vergessen wie gefunden. Die leichte Verfügbarkeit von Informationen hat ein nicht geringes Verdummungspotenzial – so wie wir seit den 1970er Jahren mit der Verbreitung der Taschenrechner das Kopfrechnen nicht mehr wirklich gelernt haben.

Aber am meisten verstören mich die nichtoffensichtlichen KI-Anwendungen in Alltagsgeräten wie z.B. Autos. Die Nutzung von immer mehr Geräten und Funktionen hängt nur noch von dem guten Willen halbwahnsinniger Tech-Milliardäre wie Elon Musk ab. Ist uns auch nur ansatzweise klar, wie weit die Abhängigkeit von wenigen globalen Tech-Konzernen schon geht und wie sie neuerdings auch durch die KI-Integration immer noch weiter zunimmt? Ist uns genug bewusst, dass eine handvoll Superreicher die gesamte Welt mit wenigen Knopfdrücken ins Mittelalter zurückversetzen kann? Oder dass so etwas um so einfacher durch böswillige Dritte oder technische Pannen (Katastrophen wäre das bessere Wort hier) herbeigeführt werden könnte, je prominentere Single-Points-Of-Failure es gibt?

Die unkritische, geradezu naive Art, wie eine in Bezug auf neuere Technologien intellektuell schon längst überforderte Gesellschaft sich auf die hochganzpolierten KI-Dienste stürzt, erinnert an eine Horde neugieriger, aber ahnungsloser Steinzeitmenschen, denen jemand eine Kiste mit Handgranaten hingestellt hat. Es ist nur eine Frage der Zeit, bis einer sich selbst (oder alle) in die Luft sprengt.

5
0

Ein Gedanke zu “Spielen mit Handgranaten”

  1. KI-Srachmodelle werden weiterentwickelt, können lernfähig gemacht und zur autonomen Steuerung gebraucht werden. Die Verbindung mit „efferenter Hardware“, die durch KI kontrolliert wird, führt zu autonomen Maschinen wie z.B. selbstfahrenden Autos. Dabei bleibt es nicht. Humanoide Roboter, in Massenfertigung vielleicht erstaunlich billig, werden massenhaft Arbeitsplätze in den Industrien verdrängen (und zahlen nicht in die Sozialsysteme ein). Und natürlich wird es auch autonome Waffen (Panzer, Drohnen, Roboter-Soldaten usw.) geben. Wenn all diese wunderbaren KI-Modelle aus den Laboren weniger Spezialhersteller kommen, bräuchte es eigentlich nur noch wenig, bis eine kleine aber gemeine Elite von Tech-Milliardären und korrupten Politikern die faktische Kontrolle über weite Teile unserer Gesellschaft und unseres Lebens übernehmen. Manche glauben, dass die heutigen Demokratien eigentlich nur noch existieren, weil sie nützliche Instrumente sind, sich so viel wie möglich von den gezahlten Gehältern zurückzuholen…

    1
    0

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert