Gefahren und Potentiale von AI-Tools wie ChatGPT

18 Shares
Gefahren und Potentiale von AI-Tools wie ChatGPT

Werkzeuge der künstlichen Intelligenz (engl.: AI / deutsch: KI) wie ChatGPT können sowohl potentiell gefährlich sein als auch Vorteile haben.

KI-Tools verwenden Computeralgorithmen, um die menschliche Intelligenz zu simulieren, so dass sie die menschliche Sprache verstehen und darauf reagieren können.

Erfahre mehr zu den Risiken aber auch zu den Potentialen der KI-Technik in diesem Beitrag.


ChatGPT kurz erklärt

ChatGPT ist ein Sprachmodell für künstliche Intelligenz, das von OpenAI entwickelt wurde und für seine Fähigkeit bekannt ist, auf Anfragen zu antworten und Informationen zu einer Vielzahl von Themen anzubieten. Aktuell sollen bereits über 100 Millionen User das KI-Tool aktiv nutzen.

ChatGPT kann aber auch zur Verbreitung falscher Informationen oder zur Manipulation von Menschen verwendet werden. Andererseits können KI-Tools Menschen bei Aufgaben wie medizinischer Diagnose und Sprachübersetzung helfen.

OpenAI will dabei sicherstellen, dass Künstliche Intelligenz (KI) „der gesamten Menschheit zugute kommt". Gleichzeitig wollen sie Schaden von ihr abwenden. Das klappt aber nicht immer. Viele Fragen bleiben in dem Zusammenhang noch offen – insbesondere beim Thema Datenschutz und Urheberrechte.

Gefahren und Risiken von AI-Tools

Um die Gefahren und Risiken von Chatbots wie beispielsweise ChatGPT zu erkennen, sollte man erst einmal grundsätzlich verstehen, wie solche KI-Tools funktionieren.

Wie funktioniert eigentlich ChatGPT?

Am Beispiel ChatGPT von openAI will ich kurz erklären, wie dieser Bot funktioniert und woher dieser seine “Intelligenz” bezieht.

Die grundlegende Technik sind Sprachmodelle, die auf einem per Deep Learning trainierten künstlichen Neuronalen Netz basieren. Diese sind in der Lage, selbstständig Texte zu verfassen, Texte zusammenzufassen, Texte zu vereinfachen und zu übersetzen, Fragen zu beantworten, Tabellen ausfüllen, Dialoge zu führen oder Programmcode zu erstellen.

Das zugrundeliegende aktuelle Modell (GPT-3.5) wurde mit einer Mischung aus Text und Code mit Milliarden von Dokumenten und Daten trainiert. Die nächste Generation (GPT-4) soll dann ein Vielfaches an Parametern haben.

Solche Chatbots sind immer nur so schlau, wie die Daten mit denen die Bots trainiert wurden. ChatGPT beispielsweise wurde mit Milliarden an Dokumenten und mit riesigen Mengen an Textdaten aus dem Internet vortrainiert. Darunter beispielsweise Textdaten aus wissenschaftlichen Arbeiten, Wikipedia, Foren, Webtexten und Buch-Datenbanken. ChatGPT ist damit in der Lage, beim Erstellen von Texten syntaktische Abhängigkeiten über Satzgrenzen hinweg zu berücksichtigen. Aufgrund dieses antrainierten Wissens spricht man allgemein von Künstlicher Intelligenz. Diese beantwortet Fragen oder löst Aufgaben, für die diese nicht explizit trainiert wurde.

Einschränkungen am Beispiel ChatGPT

Eine nicht zu unterschätzende Einschränkung bei ChatGPT ist, dass der Datenbestand nur bis Anfang 4. Quartal 2021 berücksichtigt ist. Also alles, was an Informationen in den Jahren 2021/22 neu hinzugekommen ist, wird nicht als Datengrundlage verwendet.

ChatGPT greift auch nicht auf das Internet zu! Sprich, alle Daten, die in den letzten 1,5 Jahren neu hinzugekommen sind, werden nicht berücksichtigt!

Hier ein ganz einfaches Beispiel.
Folgende Frage habe ich dem ChatGPT Bot gestellt: “was sind die unterschiede zwischen dem iPhone 13 Pro und dem iPhone 14 Pro?”

Hinweis: das iPhone 14 Pro gab es Ende 2021 noch gar nicht! Die korrekten Daten zu den iPhones findest du hier: apple.com/de

Screenshot ChatGPT iPhone Unterschiede

Andere KI-Writer beziehen zwar aktuelle Daten aus dem Internet hinzu, das Ergebnis bleibt aber wie im nachfolgenden Beispiel von Jounce trotzdem fehlerhaft.

Screenshot Jounce iPhone Unterschiede


Ein weiteres Ding, das an der Sache hakt, ist, dass die Ergebnisse nicht wirklich stimmen könnten, wenn das Training nur auf Daten beruht, die voller Fehler sind. Man kann nicht verhindern, dass bei den generierten Texten Vorurteile, diskriminierende Informationen und Falschaussagen mit einfließen! Im schlechtesten Fall enthalten die Texte gar rassistische oder sexistische und andere ethisch nicht vertretbare Texte. Nicht so cool.

Du weißt nicht, was ChatGPT nicht weiß!

Das ist auch der große Haken an der Geschichte: man weiß eben nicht, was ChatGPT nicht weiß! Befragt man so einen Chatbot nach einem Thema, das man nicht kennt, kann man nicht beurteilen, wie gut oder schlecht die Antwort ist.

Man kann sich also nie sicher sein, ob die gelieferten Texte die gewünschten Informationen enthalten und ob diese dann auch noch der Wahrheit entsprechen.

Mangelndes Sprachverständnis

ChatGPT hat auch Schwächen beim Verstehen von Kontext, Sarkasmus und Humor. Auch dies kann dazu führen, dass Inhalte falsch interpretiert werden, was zu ungenauen oder irreführenden Ergebnissen führt.

Man sollte sich immer bewusst sein, dass ChatGPT und andere KI-Tools die menschliche Sprache oder Interaktion nicht ersetzen kann. Das gilt insbesondere bei Themen, in denen Empathie und emotionale Intelligenz erforderlich sind.


Benutze niemals einen KI-Text, ohne vorher die Fakten zu überprüfen!


Fake News und Manipulationen

Eines der größten Risiken von KI-Tools ist die Möglichkeit, dass sie zur Manipulation und zur Verbreitung von Falschinformationen missbraucht werden können.

"Auditive und visuelle Aufzeichnungen eines Ereignisses werden oft als wahrheitsgetreue Darstellung eines Ereignisses betrachtet. Was aber, wenn diese Medien künstlich erzeugt und so angepasst werden können, dass sie Ereignisse zeigen, die nie stattgefunden haben, Ereignisse falsch darstellen oder die Wahrheit verfälschen?", stellte die europäische Strafverfolgungsgruppe Europol fest, die sich kürzlich auch besorgt über die Übernahme von Internetinhalten durch KI äußerte.

Wenn die Datengrundlage, die ja von echten Menschen erzeugt wurde oder anderes bereitgestellte Material Wissenslücken aufweist, Vorurteile verstärkt oder schlichtweg falsch sind, übernimmt ein ungefiltertes Modell diese Vorgaben. Die Sprachmodelle sind nicht in der Lage, die Wissensbasis auf ihre Korrektheit zu überprüfen.

Das betrifft übrigens alle Sprachmodelle. Die Bots erzeugen Aussagen und Texte, die zunächst sachkundig erscheinen. Sie können in demselben Ton Dinge erzählen, die plausibel klingen – aber totaler Unsinn sind.

Das Unternehmen OpenAI erklärt selbst dazu auf seiner eigenen Website, dass „ChatGPT manchmal plausibel klingende, aber falsche oder unsinnige Antworten schreibt.“

Das trifft auch auf die Informationsbeschaffung zu. Wenn jemand einen solchen Chatbot dazu nutzt, sich Informationen zu beschaffen, kann sehr leicht mit dem Ergebnis getäuscht werden.

Anders dagegen bei Suchmaschinen wie Google. Hier bekomme ich dann wenigstens eine Liste mit verschiedenen Antworten als Ergebnis meiner Frage. Die kann ich mir dann anschauen und die Ergebnisse miteinander vergleichen.

Die eine Antwort, die mir der Chatbot gibt, sieht vielleicht so überzeugend aus, dass ich gar keinen Bedarf habe, diese kritisch zu hinterfragen. Dann merke ich nicht einmal, was für einen Unsinn mir der Chatbot ausgegeben hat.

Elon Musk, ehem. Mitgründer der hinter dem Chatbot stehenden Firma OpenAI, bezeichnet KI als „eines der größten Risiken für die menschliche Zivilisation“.

Eben dieser Musk plant wohl eine eigene KI-Firma, die ein Gegengewicht zu ChatGPT schaffen soll (Quelle).

Deepfakes könnten zu einem ernsthaften Problem werden.

Gerade auf den Social-Media Kanälen können Deepfakes zu einem ernsthaften Problem werden.

Da KI-Tools für Audio und Video immer besser werden, ist es mittlerweile sehr leicht, wirklich gute Deepfakes (manipulierte Videos und Fotos) von prominenten Personen zu erstellen. Diese werden dann von Betrügern beispielsweise als Werbung bei Instagram und Co gepostet, um User damit reinzulegen.

Wie einfach solche Deepfakes erstellt werden können, kannst du hier selbst einmal ausprobieren.


Wie wird das Internet der Zukunft für uns alle einmal aussehen?

Wird das Netz der Zukunft vermehrt von seelenlosem Material gefüttert, das keinen wirklichen Zweck erfüllt und keinen Anreiz mehr bietet?!

Steuern wir auf eine erschreckende Zukunft zu,
die der Dead-Internet Verschwörungstheorie sehr ähnlich ist?

Diese Theorie des “Toten Internets” besagt, dass die meisten Menschen und Inhalte, die wir in unseren Feeds sehen, Fälschungen sind. Geschaffen von einer “bösen” KI, um uns dazu zu bringen, Dinge zu kaufen, die wir nicht brauchen und Informationen zu konsumieren, die nicht der Wahrheit entsprechen, damit uns die Werbekunden besser erreichen können.

Aber zum Glück sind wir noch nicht so weit. Im Moment noch, ist der Großteil von dem, was wir im Netz zu sehen bekommen, nicht gefälscht (insofern es von echten Menschen erstellt wurde).

Algorithmen spielen eine große Rolle bei dem, was wir teilweise online zu sehen bekommen. Wobei aber auch hier echte Menschen wahrscheinlich immer noch für die Inhalte verantwortlich sind.

Wird GPT-3 "völlig losgelöst" sein?

Was einen aber dann schon zum Nachdenken bringt,
sind solche Aussagen von Experten zu dem Thema.

Timothy Shoup (vom Copenhagen Institute for Futures Studie) prognostizierte zu dem Thema beispielsweise, dass bei einem Szenario GPT-3 "völlig losgelöst" sein wird. 

Es kann bis 2025-2026 möglich sein, dass fast 99% des Internets durch künstliche Intelligenz erzeugt werden. Und dann wäre das Internet nicht mehr wiederzuerkennen.

ChatGPT ist bereits in der Lage, hervorragende Phishing-E-Mails zu verfassen, die wesentlich professioneller und glaubwürdiger sind als die meisten Texte, die wir derzeit beobachten.

Das hat einen einfachen Grund: Viele Hacker sprechen kein fehlerfreies Englisch. Grammatik- sowie Rechtschreibfehler lassen ihre Betrugsmaschen schnell auffallen.

ChatGPT ist in der Lage, überzeugend klingende und sprachlich fehlerfreie E-Mails zu verfassen, die durchaus von den Unternehmen und Organisationen stammen könnten, von denen sie vorgeben, zu sein.

"Eine authentisch gefälschte E-Mail ist die halbe Miete, um jemanden zum Klicken auf einen Phishing-Link zu bewegen.", so der Threat Intelligence Group Manager bei Check Point Software Technologies, Sergey Shykevich (Quelle).

Das Erschaffen von neuen Texten und Bildern war nur der Anfang.

Videos, Stimmen, Musik und komplette Influencer können mittlerweile mit künstlicher Intelligenz generiert werden. AI/KI wird das Internet zukünftig mit immer mehr Content überfluten.

Infografik: Wie sieht die KI-Zukunft aus? | Statista Mehr Infografiken finden Sie bei Statista
Infografik: Wie sieht die KI-Zukunft aus? | Statista

Die Grafik zeigt den Anteil der Befragten, die erwarten, dass sich durch KI in drei bis fünf Jahren vor allem Folgendes ändern wird (Quelle: statista.com).


Ein Punkt, den viele vergessen: KI schadet dem Klima.

Die Nutzung von künstlicher Intelligenz in diesem Ausmaß erfordert eine enorme Menge an Rechenleistung. Dies führt aber auch zu einem massiven Anstieg des Energiebedarfs. Das kann schwerwiegende Auswirkungen auf das Klima haben und sollte daher sorgfältig berücksichtigt werden.

Es ist wichtig, dass wir uns bewusst sind, dass die Auswirkungen der Nutzung von KI-Tools wie ChatGPT über die unmittelbaren Vorteile hinausgehen und dass wir nachhaltigere Möglichkeiten finden müssen, um die Energiebedürfnisse der KI zu decken. Besonders beim Krypto-Mining war das in der Vergangenheit immer wieder Thema in den Medien.

Laut unabhängigen Experten verbraucht allein das Training des Sprachmodell GPT-3, das in ChatGPT integriert ist, 1.287 Megawattstunden Energie. Dies entspricht der Emission von mehr als 550 Tonnen Kohlendioxid-Äquivalenten.

Auch während auf das System zugegriffen wird, benötigt es eine enorme Rechenleistung. Und damit nicht genug. Um den Datenbestand der Künstlichen Intelligenz aktuell zu halten, muss man sie immer wieder neu trainieren.

Beispielsweise wird für das Generieren einer Antwort durch ChatGPT die vier- bis fünffache Rechenleistung gegenüber einer klassischen Suchanfrage benötigt.

Fragen wir doch mal ChatGPT selbst.
Die Antwort überrascht jetzt nicht wirklich.

internetSCOUT:
“Wie viel CO2 Emissionen verbraucht die Rechenleistung von ChatGPT?”

ChatGPT:
“Als künstliche Intelligenz-Modell benötigt ChatGPT keine direkte CO2-Emissionen während der Ausführung. Die Rechenleistung von ChatGPT wird von Servern bereitgestellt, die jedoch Strom verbrauchen und daher CO2-Emissionen verursachen können, abhängig von der Art und Quelle des Stroms.

Die genaue Menge an CO2-Emissionen, die durch die Rechenleistung von ChatGPT verursacht werden, hängt von verschiedenen Faktoren ab, wie beispielsweise der Art des verwendeten Rechenzentrums und der verwendeten Energiequelle (z.B. Kohle, Gas, erneuerbare Energien). Ohne diese Informationen ist es schwierig, eine genaue Schätzung zu machen.

Es ist jedoch wichtig zu beachten, dass viele Unternehmen und Rechenzentren zunehmend auf erneuerbare Energien umsteigen, um ihren CO2-Fußabdruck zu reduzieren.”


Die größten Stolperfallen von ChatGPT

  • viele falsche Aussagen
  • erfundene Zitate und deren Quellen
  • biographische und historische Daten und physikalische und mathematische Gesetze, die es nicht gibt
  • keine logische Schlussfolgerungen
  • erkennt kein Kontext von Informationen in einem Text
  • mit den richtigen Prompts lassen sich etwa Falschmeldungen, Desinformationen und Spam-Nachrichten generieren
  • erzeugt Ergebnisse, die Vorurteile gegenüber Minderheiten, Menschen verschiedener Geschlechter und Anhänger bestimmter Glaubensbekenntnisse reproduzieren
  • mangelnde Trainingsdaten
  • kein Zugriff auf aktuelle Daten (kein Internet-Zugriff; Datenbestand nur bis 4. Qt. 2021;)
  • die fehlende Regulierung oder Haftungsfragen
  • großer Energieverbrauch (klimaschädlich)
  • und massive Kosten



Die Potentiale von AI-Tools

Wir sollten uns über die Gefahren und Potentiale von AI-Tools wie ChatGPT bewusst sein, bevor wir sie in unser tägliches Leben integrieren. Es ist jedoch auch wichtig zu erkennen, dass die KI ein enormes Potenzial hat, wenn es sorgfältig eingesetzt wird.

Zum Beispiel kann es dazu beitragen, dass Unternehmen effizienter arbeiten, indem es komplexe Aufgaben schneller erledigt als Menschen. Durch die Einbindung von KI in unseren täglichen Arbeitsablauf können wir unsere Produktivität deutlich steigern und viele unserer Routineaufgaben effizienter und schneller erledigen.

Zudem ermöglicht die KI auch eine effiziente Kommunikation und Interaktion mit unseren Kunden, was zu einem besseren Kundenservice und zu einer verbesserten Kundenzufriedenheit führen kann.

ChatGPT kann auch helfen, Benutzerinteraktionen zu verbessern, indem es auf die spezifischen Bedürfnisse von Nutzern eingeht und sie bei der Navigation durch eine Website oder App unterstützt.

Andererseits können KI-Tools auf vielen Gebieten wie der medizinischen Diagnose und der Prozessautomatisierung eine wertvolle Hilfe sein. Sie können auch zur Verbesserung von Prozessen wie der Bild- und Texterkennung und der Sprachübersetzung beitragen.

ChatGPT ist ein leistungsstarkes AI-Tool, das in der Lage ist, eine Vielzahl von Chat-Szenarien zu simulieren. Die produzierten Texte lassen sich im Falle von Programmcode so gut wie gar nicht – und im Fall von Texten - nicht mehr so leicht von der Arbeit eines Menschen unterscheiden.

Obwohl es eine schnelle und effiziente Möglichkeit bietet, in verschiedenen Situationen zu interagieren, kann es auch zu Fehlern im Kontext und zu einer schlechten Benutzerinteraktion führen. Daher ist es wichtig, dass wir uns bewusst machen, wann wir ein AI-Tool wie ChatGPT einsetzen sollten und wann nicht.


Was wird heute schon alles durch die KI erzeugt?

Die Einsatzmöglichkeiten von ChatGPT

ChatGPT lässt sich beispielsweise verwenden, um:

  • neue Texte zu erzeugen
  • Texte zu vervollständigen
  • Texte zusammenzufassen oder zu vereinfachen
  • Texte zu übersetzen
  • Fragen zu beantworten
  • Aufgaben zu lösen
  • Texte in verschiedenen Stilen zu schreiben
  • Tabellen mit Informationen zu füllen
  • SQL-Abfragen zu schreiben
  • Programmcode zu erstellen (in verschiedenen Programmiersprachen wie CSS, Python oder JavaScript)
  • Dialoge zu führen
  • um nur die wesentlichen zu nennen.


KI Einsatzmöglichkeiten aus der Praxis

KI Literatur

Da wäre zum Beispiel die Literatur. Ein chinesischer Verlag bietet bereits seit 2017 die Gedichtsammlung "Sunshine Misses Windows” zum Verkauf in Buchhandlungen an. Diese Sammlung ist ein Auszug aus über 10.000 Gedichten, die komplett durch die KI erzeugt wurden.

KI Musik & Sprache

Auch in der Musik findet man die ersten veröffentlichten Stücke. So haben beispielsweise Forscher der Aalto-Universität in Finnland DeepBeat entwickelt.
DeapBeat ist eine Software, die in der Lage ist, Rap-Texte zu schreiben.

Noch gar nicht so lange her (2022), haben Musikproduzenten ihre Besorgnis über KI-Musikgeneratoren zum Ausdruck gebracht (Quelle: VICE.com).
Die Musikindustrie behauptet, dass Dienste, die KI nutzen um Tracks zu ändern, die Rechte der Künstler verletzen.

Erst kürzlich haben Forscher bei Google mit “Noice2Music” eine Methode entwickelt, Musik zu generieren, die ausschließlich auf Textaufforderungen basiert. Obwohl nicht für den öffentlichen Gebrauch, ist es ein Ausblick darauf, wie die Zukunft der Musikproduktion auf Textaufforderung reduziert werden kann.

Mit VALL-E, von Microsoft, gibt es ein Text-to-Speech Sprachmodell, das nicht nur einfache Texte vorlesen kann. Nein, dieses KI-Tool simuliert gleich ganze Stimmen. Alles was dafür nötig ist, ist lediglich ein Audio Sample der Originalstimme von drei Sekunden. Damit soll es sogar möglich sein, vorhandene Sprachaufnahmen einer Person zu verändern. Eine Demo des Tools könnt ihr hier anhören: valle-demo.github.io

Da kann sich jetzt jeder selber ausmalen, was mit so einem Tool alles möglich ist. Die Entwickler hinter VALL-E sind sich der Gefahren bewusst und arbeiten daran, Sicherheitsmechanismen in das Tool zu implementieren.

KI Bildbearbeitung & Grafik

Die KI ist auch stark in der Bildbearbeitung und der Grafikerstellung.

Nicht jeder von uns hat unbedingt eine künstlerische Ader. Aber dafür gibt es dank KI ja Abhilfe. Jetzt kann über Umwege mittels KI-Tools jeder zum Künstler werden.

Beispiel gefällig?
Jason Allen ist eigentlich kein Maler, sondern Chef einer Spielefirma. Trotzdem hat er ein Werk mit der Bezeichnung “Théâtre D’opéra Spatial” veröffentlicht.

Das auf Leinwand gedruckte Bild, welches Jason Allen geschaffen hat, zeigt einen futuristischen Thronsaal mit einer Vielzahl von in langen Kleidern gehüllten Adeligen, die durch ein riesiges, rundes Fenster auf eine Stadt blicken.

Die raffinierten Details des Bildes, die scheinbar mit tausenden Pinselstrichen erschaffen wurden, lassen vermuten, dass der “Künstler” ein außergewöhnliches Talent besitzt. Doch tatsächlich wurde das Bild mithilfe der auf Bilder spezialisierten künstlichen Intelligenz "Midjourney" erschaffen. Das Werk hat sogar ein Wettbewerb für digitale Kunst gewonnen.

jason allen theatre d opera spatial

„Théâtre D’opéra Spatial“, von Jason Allen, Quelle: Discord,@Sincarnate


"Midjourney" ist natürlich nicht das einzige KI-Tool dieser Art. Unter anderem gibt es da noch "Dall-E" (auch von openAI), "Stable Diffusion" oder "Imagen" die Kunstwerke auf Kommando erzeugen können.

Diese sind teilweise kommerziell verfügbar, gar nicht öffentlich zugänglich oder können wie beispielsweise "Stable Diffusion", das eine quelloffene Adaption von "Dall-E" ist, von jedem frei genutzt werden.

Dass im Internet immer mehr KI-generierte Bilder auftauchen, ist also kein Zufall. Die Künstliche Intelligenz in der Bild- und Grafikbearbeitung bietet auch hier ein ungeheures kreatives Potenzial. Die ermöglicht es Künstlern – und solchen, die sich dafür halten – ihre kreativen Visionen auf völlig neue Weise zum Ausdruck zu bringen.

Allerdings gibt es auch Risiken und (noch) ungelöste Urheberrechtsfragen.
So laufen bereits die ersten Klagen wegen Urheberrechtsverletzungen. Stability AI und Midjourney sowie die Portfolio-Plattform DeviantArt sind in den USA Ziel einer Sammelklage, die im Namen von mehreren Künstlern eingereicht wurde.

Auch andere Plattformen wie die Bildagentur Getty Images und Konkurrent Shutterstock verbieten KI-generierte Inhalte, weil die rechtliche Situation noch nicht geklärt ist.

Die größte Sorge dabei ist, dass KI-Systeme mit Hilfe riesiger Mengen urheberrechtlich geschützter Werke trainiert werden.

KI Filmindustrie

Und auch die Filmindustrie ist schon fleißig bei der Arbeit mit der KI. Die erste Drehbuchsoftware hat bereits ihren ersten Debütfilm schon 2016 veröffentlicht. Ein Kurzfilm namens "Sunspring", bei dem der Filmemacher Oscar Sharp Regie führte.

Sharp sagt, das Ergebnis des Experiments sei "eine Mischung aus einer verrückten Vision und einem poetischen Unsinn, der seltsam anziehend ist". 

Der Film wurde auch bei der Sci-Fi London gezeigt
und er wurde zu einem der 10 besten Kurzfilme gewählt.

YouTube-Video: “Sunspring | A Sci-Fi Short Film Starring Thomas Middleditch

YouTube Hinweis


KI Forschung & Entwicklung

Vorhersagen durch Frühwarnsysteme. Laut einem veröffentlichten Bericht der Vereinten Nationen, der eindrucksvoll zeigt, dass die Hälfte der Welt nicht über angemessene Frühwarnsysteme für Naturkatastrophen wie Überschwemmungen und Brände verfügt.

KI-Prognosen in der Google Suche und in Maps für viele Länder zeigen Hochwasservorhersagen an und schicken Warnungen an mobile Geräte, um Menschen in Not zu benachrichtigen. Der Google FloodHub bietet detaillierte Überschwemmungskarten, damit Menschen genau sehen können, was sie an ihrem Standort zu erwarten haben.

YouTube Video: "What is the Google FloodHub?" (E)

YouTube Hinweis


Bei der Brandbekämpfung verwendet Google seine Satellitenbilder, um KI-Modelle zu erstellen. Im Ergebnis können die Grenzen von Waldbränden in Echtzeit erkannt werden – und zeigen deren Standorte in der Suche und Maps an (derzeit nur in den USA, Kanada, Mexiko und Teilen Australiens).

Auch bei der NASA ist die Kreative Intelligenz schon längst angekommen.

Die NASA hat ein Programm entwickelt, das Bauteile für die Raumfahrt entwerfen soll. Die Ergebnisse sind beeindruckend und besser als alles, was jemals von einem Menschen für diesen Bereich entwickelt wurde: Die Teile sind leichter, stabiler und sehen auch noch aus wie Alien-Technologie.

Der verantwortliche Forschungsingenieur, Ryan McClelland, gibt zu: "Sie sehen etwas fremdartig und seltsam aus, aber wenn man sie einmal in Funktion sieht, ergibt alles wirklich Sinn."

Screenshot NASA aluminum scaffold

Bild: Ryan McClelland designed an aluminum scaffold for the back of the EXCITE telescope (Quelle: nasa.gov)

KI Klone

Jetzt kann man nicht mal mehr einer Influencerin trauen.
Ailice, ein AI-Instagram-Model hat das Licht der Welt entdeckt.

Ailice ist ein Model, postet jeden Tag auf Instagram und sie ist zu 100% KI-generiert. Die Infoseite zum Model findest du unter ThisModelDoesNotExist.

Screenshot AI Model Ailice

Das ganze ist ein Projekt von Danny Postma. Danny ist auch Gründer von AI Profile Picture Generator (profilepicture.ai). Er macht mit dem Projekt natürlich indirekt Werbung für sein (kostenpflichtiges) Online-Tool. Das Tool verwendet künstliche Intelligenz, um ein Bild von dir zu erstellen, das perfekt aussieht und dich perfekt einfängt.

Wie einfach es mittlerweile ist, einen Klon von seinem eigenen Ich zu erschaffen, zeigt ein Video- und AI-Blogger (@MattVidPro) eindrucksvoll in einem YouTube-Video.

Mit den Tools Movio.ai, Character.ai und Elevenlabs.io hat er seinen Klon zum Leben erweckt. Und der wirkt wirklich täuschend echt! Nicht nur das Aussehen, sondern auch die Stimme ist täuschend echt von der KI reproduziert worden.

Wenn man jetzt ein wenig weiter denkt, kann man sich vorstellen, was das für Auswirkungen haben kann. Was passiert, wenn Klone von Politikern falsche Behauptungen verbreiten? 

Die New York Times berichtet über Deepfakes chinesischer Nachrichtensender. Diese gefakten Videos wurden bereits auf Facebook und Twitter geteilt. Was kommt als nächstes?

Aber auch bereits verstorbene Personen können mit Hilfe der KI “wiederbelebt” werden. In diesem Beispiel zumindest die Stimmen. Auf podcast.ai könnt ihr euch Podcasts mit Stimmen von Prominenten wie Steve Jobs anhören. Dazu wurde die KI mit Interviews und Keynotes von Jobs trainiert.

Screenshot podcast ai


Die Technik dahinter stammt von dem Online-Tool Play.ht.
Das ist ein KI-gesteuerter Text-zu-Sprache-Generator. 

Mit dem Tool kannst du realistische Text-to-Speech (TTS)-Audios produzieren. Wandle deinen Text sofort in natürlich klingende Sprache um und lade ihn als MP3- oder WAV-Audiodatei herunter.


Die Big Player im KI-Markt

Es ist kein Geheimnis mehr, dass die Entwicklung von automatisch generierten Inhalten mit natürlichen Sprachprozessoren und Generatoren wie GPT-3 im Netz boomt. 

Mittlerweile gibt es an jeder Ecke des Internets neue Artikel und Tools
zum Thema KI/AI und ChatGPT.

Dabei sind derzeit OpenAI, Google und Microsoft die Big-Player im KI-Rennen.

Microsoft 

startete jetzt seine KI-gestützte Bing Suchmaschine
und einen Edge-Browser (auf Bing.com verfügbar). 

Im Ergebnis soll damit eine bessere Suche und vollständigere Antworten geliefert werden. Zusätzlich soll es möglich sein, damit Inhalte zu generieren.

Doch erste Gehversuche waren gespickt von ungewöhnlichen und verwirrenden Antworten. Deshalb werden jetzt die Nutzung des Bing Chats auf fünf Fragen pro Session und 50 Fragen pro Nutzer und Tag begrenzt.

Google

Auch Google startet jetzt seine neue KI-gestützte Suche und den Chatbot “Bard” (noch nicht öffentlich). Google will neben Bard bald auch generative KI-Modelle für Text in der Google-Suche nutzen. Dadurch soll es besser möglich sein, Antworten auf Fragen zu finden, bei denen es keine einzige faktenbasierte Antwort gibt.

Neben Bard und der generativen KI für die Google-Suche hat das Unternehmen auch die multimodale Suche Multisearch via Google Lens sowie Verbesserungen für Google Maps angekündigt.

YouTube Hinweis

YouTube Video (E): Google Bard and Generative AI Search Revealed (deutsch: Google Bard und generative KI-Suche enthüllt)



META

die Konzernmutter hinter Facebook, Instagram und WhatsApp – hat jetzt auch angekündigt, eine eigene KI Sprachtechnologie (LLaMA) in ihre Produkte zu integrieren. Diese LLaMA soll dem Sprachmodell von ChatGPT “GPT-3” in vielen Punkten überlegen sein. 

Aber im Gegensatz zu OpenAI ist der Code von Meta’s Sprachmodell für andere Forscher einsehbar. Allerdings wird der Zugriff von Meta zunächst nur auf Akademiker und Regierungsorganisationen begrenzt. Eine mögliche Integration in Instagram und Co könnte durchaus interessant sein. Ist aber laut einem Unternehmenssprecher vorerst nicht geplant.

Und zu all dem meldet sich Elon Musk zurück. Er war einer der Mitgründer von openAI im Jahr 2015, zog sich dann aber in 2018 komplett zurück. Berichten zufolge stellt Elon Musk gerade ein Team aus AI-Forschern zusammen, um eine Alternative zu OpenAI’s ChatGPT zu erschaffen.


2023 erwartet uns ein harter Wettkampf der KI-Tools


MOSS, China

Auch in China war man nicht untätig. Chinesische Wissenschaftler der Fudan-Universität haben in Konkurrenz zu ChatGPT einen intelligenten Chatbot mit dem Namen “MOSS” entwickelt. 

MOSS wurde sehr schnell populär. Das Kuriose an dem Chatbot war, dass dieser besser Englisch als Chinesisch verstand. Durch den großen Andrang und den damit erhöhten Datenverbrauch sind die Rechner-Ressourcen der Universität allerdings sehr schnell an ihre Grenzen gekommen. Man hat den öffentlichen Zugang zu MOSS deshalb kurzerhand abgeschaltet.

Aber auch die asiatischen Big-Player wie etwa Baidu und Tencent
arbeiten aktiv an dem Thema.

Anthropic, USA

Mit Anthropic ist 2021 ein weiteres KI-Startup in den USA gestartet. Das gemeinnützige Unternehmen wurde von einem ehemaligen openAI Forschungsleiter Dario Amodei gegründet. 

Bei Anthropic hat man eine Text-KI nach dem Vorbild von ChatGPT entwickelt, die sich jedoch in einigen Bereichen unterscheidet.

Anthropic konzentriert sich auf die Entwicklung und den Einsatz von “Claude”, einem KI-Assistenten, der auf der Forschung des Unternehmens zum Aufbau sicherer, steuerbarer KI basiert.

Anthropic hat Sicherheitstechniken wie Constitutional AI entwickelt, um KI-Technologien zu entwickeln, auf die man sich leichter verlassen und verstehen kann.

Sprachassistenten werden dahingehend ausgebildet, um hilfreich zu sein. Das aber ohne schädliche Ratschläge zu geben oder schlechtes Verhalten zu zeigen. Bisher laufen nur interne Beta-Tests mit “Claude”.


Weiterere Big-Player im KI-Markt

Zwei weitere Big-Player im KI-Markt – zumindest was den Bereich Unternehmensanwendungen angeht – sind C3 AI (c3.ai) aus den USA und das deutsche Start-up Aleph Alpha (www.aleph-alpha.com).

C3 AI, USA

bietet unter anderem eine Plattform für die Entwicklung von KI-Anwendungen und eine große Auswahl von schlüsselfertigen KI-Anwendungen für Unternehmen. Zu deren Kunden gehören beispielsweise SHELL, PHILIPS, JohnsonControls, die U.S.Army oder auch die U.S. Air Force.

C3 AI Ex Machina ist das derzeitige Top-Produkt von C3 AI. Ex Machina ermöglicht es jedem, KI-Erkenntnisse zu entwickeln, zu skalieren und anzuwenden. Und das, ohne Code schreiben zu müssen. Das Tool kann für 15 Tage kostenlos getestet werden.

Aleph Alpha, Deutschland

hat ein eigenes Modell namens Luminous entwickelt. Die Leistungsfähigkeit ihrer KI hat das Heidelberger Unternehmen bereits getestet. Im Ergebnis kann das eigene Modell mit denen von Open AI und anderen mithalten und ist dabei sogar noch effizienter.

Allerdings bietet Aleph Alpha kein Massenprodukt für Endkunden an. Man hat sich ausschließlich auf Anwendungen für Unternehmen und die öffentliche Verwaltung spezialisiert.

Wie so eine Anwendung für die öffentliche Verwaltung aussieht, kann man am Beispiel der Stadt Heidelberg sehen (aleph-alpha.com/use-cases). Auf deren Homepage wird man von dem Bürgerassistenten "Lumi" begrüßt. Dieser Assistent basiert auf dem Modell Luminous. Der Assistent ist in der Lage, auf individuelle, nicht vorab programmierte Fragen von Bürgern einzugehen (www.heidelberg.de).

Screenshot Heidelberg LUMI Bot


OpenGPT-X

Und auch in Europa will man ein Gegenstück zu Diensten wie ChatGPT auf die Beine stellen. Das ganze nennt sich “OpenGPT-X” und will eigene KI-Sprachmodelle entwickeln, die sich speziell an europäische Bedürfnisse richten. An dem Projekt arbeiten aktuell elf Partner aus Wirtschaft, Wissenschaft und der Medienbranche (u.a. Aleph Alpha, die Akademie für Künstliche Intelligenz, Fraunhofer-Institut, Forschungszentrum Jülich, und weitere).

Screenshot openGPT X



FAZIT

Die angesprochenen Risiken beim Umgang mit der KI und ChatGPT sind nicht wegzudiskutieren. Solche KI-Tools können leicht von Menschen missbraucht werden, um falsche Informationen zu verbreiten oder um Menschen zu manipulieren. Es ist daher wichtig, dass man sich bewusst ist, dass ChatGPT - wie im übrigen auch andere KI-Tools - ein mächtiges Werkzeug ist, das man mit Vorsicht anwenden muss.

Wir müssen uns auch auf die Gefahren von AI-Tools wie ChatGPT einstellen und verstehen, wie wir sie verhindern können. Wir sollten auch überlegen, wie wir das Potenzial von AI-Tools wie ChatGPT am besten nutzen können, um unsere Arbeit zu verbessern. Insgesamt lohnt es sich also, das Potenzial von AI-Tools wie ChatGPT zu nutzen.

Eines steht auf jeden Fall fest: Die KI wird mit Sicherheit unsere Welt verändern.

chimp bg line crunch blue



Quellen:

Definition GPT-3 | https://www.bigdata-insider.de/was-ist-der-generative-pretrained-transformer-3-gpt-3-a-1011085/

Erwartungen an GPT-4 | https://www.derstandard.de/story/2000142723664/chat-gpt-die-leute-betteln-geradezu-darum-enttaeuscht-zu-werden

Ist KI-Kunst ästhetisch wertvoll? | https://www.monopol-magazin.de/ist-ki-kunst-aesthetisch-wertvoll

Midjourney und Co: Künstlerinnen klagen KI-Firmen wegen Urheberrechtsverletzung | https://www.derstandard.de/story/2000142613730/midjourney-und-co-kuenstlerinnen-klagen-ki-firmen-wegen-urheberrechtsverletzung

"AI Art"-Unternehmen & DeviantArt werden von Künstlern verklagt (E) | https://kotaku.com/ai-art-stable-diffusion-midjourney-lawsuit-sued-court-1849991363

Probleme, die uns ChatGPT und andere KI-Chatbots bescheren (D) | https://1e9.community/t/das-sind-die-probleme-die-uns-chatgpt-und-andere-ki-chatbots-bescheren/18871

Google Research (E) | https://ai.googleblog.com

Google The Keyword (E) | https://blog.google/technology/ai/

Google The Keyword Deutschland (D) | https://blog.google/intl/de-de/

Noch keine Kommentare vorhanden

Was denkst du?

Neueste Blog-Beiträge:

Newsletter Banner
zum Seitenanfang

Hinweis:
Alle Informationen auf dieser Website werden den Besuchern kostenlos zur Verfügung gestellt und waren zum Zeitpunkt der Veröffentlichung nach bestem Wissen und Gewissen korrekt. Fotos und Bilder werden über lizenzfreie Bildseiten, soziale Medien (Twitter/Instagram/YouTube) und / oder durch Eigenproduktion bereitgestellt. Ich bin nicht mit den auf der Website erwähnten Marken, Personen, Influencern oder Websites verbunden. Einzelne Beiträge auf dieser Website können Affiliate-/Werbe-Links (*) enthalten, was bedeutet, dass ich eine Provision erhalte, wenn Sie über meinen Link einkaufen, ohne dass Ihnen zusätzliche Kosten entstehen.
Bitte lesen Sie die vollständige Offenlegung über den Menüpunkt "* Affiliate-Links".

Aus Gründen der besseren Lesbarkeit wird auf die gleichzeitige Verwendung der Sprachformen männlich, weiblich und divers (m/w/d) verzichtet.
Sämtliche Personenbezeichnungen gelten gleichermaßen für alle Geschlechter.

..