KI unter der Lupe: Die Risiken von ChatGPT, DALL-E und Co. verstehen

KI-Tools wie ChatGPT und DALL-E revolutionieren gerade die Art und Weise, wie wir mit Maschinen interagieren.

Chat-GPT ist ein Sprachmodell, das menschenähnliche Antworten verstehen und generieren kann, während DALL-E eine Bild-generierende KI ist, die Bilder aus textuellen Beschreibungen erstellen kann.

In diesem Blogbeitrag untersuchen wir einige Risiken der KI-Tools.

Vertrauen

Obwohl KI-Modelle in der Lage sind, kohärente Texte und realistisch aussehende Bilder zu erzeugen, ist es wichtig zu hinterfragen, ob die Informationen, die sie bereitstellen, auch tatsächlich korrekt sind. Die Überprüfung der Authentizität und Genauigkeit dieser Inhalte kann für Anwender schwierig sein. Dieses Problem wird durch die mangelnde Transparenz in der KI-Technologie verstärkt, da viele KI-Modelle aufeinander aufbauen und die Herkunft sowie die Qualität ihrer Trainingsdaten oft unklar sind. So können Verzerrungen (Bias) in den Daten vorhanden sein, was es noch komplizierter macht nachzuvollziehen, welche Informationen für die Entscheidungen der KI herangezogen werden.

Während Wikipedia – die größte Online-Enzyklopädie – einen großen Wert auf die Verwendung glaubwürdiger Quellen legt, liefert ChatGPT keine Quellen für seine Antworten. Ein Blog-Beitrag für Wikimedia Deutschland fasst zusammen: „Das Problem ist, dass Textbots wie ChatGPT auf dem gegenwärtigen Stand schlicht raten, wenn sie eine Antwort nicht kennen„. Ein weiteres Problem ist, dass das, was wir heutzutage als „Halluzinieren“ bezeichnen, häufig als ein netterer Begriff für „Fehlinformation“ verwendet wird.

Die Herausforderungen, die mit der Nutzung dieser Technologien einhergehen, sind jedoch nicht nur technischer Natur. Es gibt ernsthafte Bedenken, dass die KI von Einzelnpersonen missbraucht werden könnte, um beispielsweise „Deepfakes“ – künstlich erzeugte oder manipulierte Foto-, Video- oder Sprachaufzeichnungen, die einen täuschend echten Eindruck vermitteln – zu erstellen. Solche Fälschungen können potenziell den Ruf von Einzelpersonen schädigen und die Gesellschaft in die Irre führen. Aus diesem Grund ist es entscheidend, sich nicht ausschließlich auf KI-gestützte Informationen zu verlassen, sondern auch zusätzliche Quellen zu konsultieren, um gut informierte Entscheidungen zu treffen.

Privatsphäre

Wenn KI-Tools mit persönlichen Informationen wie Namen, Adressen, persönlichen Nachrichten oder Fotos gefüttert werden, besteht die Möglichkeit, dass diese Informationen vom KI-Tool gespeichert und zu eigenen Trainingszwecken genutzt werden können. Bereits vor der sogenannten Generativen-KI, war künstliche Intelligenz Teil verschiedener digitalen Diensten die wir nutzen, wie Web-Browser oder Soziale Medien. Sie hat ihnen ermöglicht, Rückschlüsse zu ziehen, um uns beispielsweise personalisierte Werbung zu zeigen. Durch das Chatten mit ChatGPT ist die Menge an persönlichen Informationen, die wir einspeisen, viel breiter und es besteht die Gefahr, dass diese von anderen Nutzer:innen abgegriffen werden (solche Fälle sind bereits bekannt geworden). ChatGPT bzw. OpenAI – der Hersteller von ChatGPT – warnt zwar vor dieser Gefahr und bietet Opt-Out Optionen. Ich glaube dennoch, dass viel mehr nötig ist, um die Risiken zu verringern, als die reine Selbstregulierung der KI-Hersteller.

Die italienische Datenschutzbehörde hat kürzlich ChatGPT verboten, aufgrund – wie berichtet – fehlender Rechtsgrundlage für das massenhafte Sammeln und Speichern personenbezogener Daten zwecks Trainieren des Chatbots. Gesetze wie die Datenschutz-Grundverordnung (DS-GVO) bieten einen Rahmen für die Verwaltung dieser Risiken, und es bleibt abzuwarten, wie sich die Einhaltung der datenschutzrechtlichen Vorschriften und der Einsatz von KI in Zukunft im Einklang bringen lassen.

Urheber- und Nutzungsrechte

Hinsichtlich der Nutzungsrechte, überträgt OpenAI den Nutzenden „alle Rechte, Titel und Interessen am Output“ seiner KI-Tools (letzer Abruf am 16.04.2023). Allerdings heißt es dort auch, dass Aufgrund der Natur des maschinellen Lernens, der Output möglicherweise nicht bei allen Nutzenden einzigartig ist. Da andere Personen ähnliche Fragen stellen und dieselben Antworten erhalten können, lässt sich kein Anspruch auf ein ausschließliches Nutzungsrecht an solchen Inhalten ableiten.

Darüber hinaus werden urheberrechtlich geschützte Werke häufig zur Ausbildung von KI-Modellen verwendet, was die Frage aufwirft, ob die aus der KI resultierenden Inhalte als derivativ oder originär zu betrachten sind. Unterschiedliche rechtliche Traditionen können hierbei zu variierenden Interpretationen führen. Die Klärung, wer die Urheberrechte an KI-generierten Werken beanspruchen und Nutzungsrechte übertragen kann, ist eng mit der Problematik der Urheberrechte an den verwendeten Trainingsdaten verknüpft und bleibt erstmal ungeklärt.

Die Festlegung von Bedingungen für den fairen Gebrauch von Daten zur Entwicklung von KI, die nicht gegen die Urheberrechte menschlicher Schöpfer verstößt, sowie die Bestimmung der Rechte an KI-generierten Inhalten sind komplexe Herausforderungen. Gegenwärtig lässt sich nicht abschließend beurteilen, ob die Vorschriften in ihrer gegenwärtigen Form ausreichend sind, um diesen Herausforderungen gerecht zu werden.

In Kürze

ChatGPT, DALL-E und andere KI-Modelle weisen auf eine vielversprechende Zukunft hin, die neue kreative Möglichkeiten eröffnet. Verschiedene Ansätze sind erforderlich, wie etwa die Einführung geeigneter Regularien, proaktives Risikomanagement und die Förderung von KI-Kompetenzen, um sicherzustellen, dass KI transparent, verantwortungsbewusst und im Einklang mit unseren ethischen Werten implementiert wird.

Foto: MS.

Leave a Reply

Your email address will not be published. Required fields are marked *