Einleitung
ChatGPT bietet als KI-gesteuertes Produkt eine hohe Benutzerfreundlichkeit und Zufriedenheit durch menschenähnliche Antworten, die auf eine Vielzahl von Themen und Fragen in Echtzeit reagieren können. Es verfügt über eine robuste Technologie, die eine schnelle, zuverlässige und effiziente Nutzung ermöglicht und bietet Potenzial für Anpassungen an verschiedene Anwendungen und Branchen. ChatGPT hat ein hohes Potenzial, in verschiedenen Branchen wie Kundenservice, Marketing, Bildung und Unterhaltung eingesetzt zu werden, um personalisierte Interaktionen zu ermöglichen und den Geschäftserfolg zu steigern. Insgesamt ist ChatGPT ein innovatives und zukunftsorientiertes Produkt, das auf veränderte Marktanforderungen und Verbraucherbedürfnisse reagieren und sich weiterentwickeln kann.
So antwortete ChatGPT uns, als wir es fragten, weshalb es ein gutes Produkt ist. Da ChatGPT in diesem Fall sicherlich nicht komplett objektiv ist, haben wir selbst das Produkt ChatGPT nach Marty Cagans fünf Produktrisiken analysiert.
Die Bewertung von ChatGPT nach Marty Cagans Produktrisiken
Value Risk (Wert-Risiko)
Dieses Risiko bezieht sich darauf, ob das Produkt dem Kunden einen Mehrwert bietet.
In Bezug auf ChatGPT ist das Wert-Risiko relativ gering, da es bereits in einem breiten User-Kreis etabliert ist. Das Interesse an Chat-Modellen wie Chat-GPT ist sehr hoch, da sie für zahlreiche Fragestellungen und Anwendungsfälle eingesetzt werden können. Besonders in Bereichen des kreativen Schreibens, wie beispielsweise im Marketing oder der Content Creation für Social-Media-Plattformen, finden Chat-Modelle Anwendung. Aber auch in anderen Bereichen wie dem Kundenservice, der Software-Entwicklung kann ChatGPT gewinnbringend eingesetzt werden.
Usability Risk (Benutzerfreundlichkeits-Risiko)
Das Usability-Risiko bezieht sich darauf, ob Benutzer:innen in der Lage sind, das Produkt effektiv zu nutzen.
Für ChatGPT ist dieses Risiko relativ gering. Nutzende können Aufgabenstellungen in natürlicher Sprache formulieren und das Modell beantwortet diese. Um Aufgabenstellungen möglichst präzise beantwortet zu bekommen, braucht es jedoch Erfahrung in der Formulierung der Aufgabenstellung (=Prompting). Die Feinheiten des Promptings eignet man sich aber durch Ausprobieren verhältnismäßig schnell an und im Internet finden sich zudem sehr viele Hilfestellungen hierzu.
Feasibility Risk (Machbarkeitsrisiko)
Das Feasibility-Risiko bezieht sich darauf, ob das Produkt mit den vorhandenen Ressourcen (Zeit, Technologie, Fähigkeiten) gebaut werden kann.
ChatGPT basiert auf der GPT-Architektur, die bereits etabliert und weit verbreitet ist. Es gibt jedoch immer eine gewisse Unsicherheit darüber, ob das Modell die notwendigen Ressourcen zur effizienten Verarbeitung komplexer Anfragen aufbringen kann, außerdem ist das Training des Sprachmodells sehr aufwändig und auch die technischen Herausforderungen zur Erweiterung des Modells für neue Anwendungsfälle und Plattformen ist ein Unsicherheitsfaktor.
Business Viability Risk (Geschäftsfähigkeits-Risiko)
Das Geschäftsfähigkeits-Risiko bezieht sich darauf, ob das Produkt auch für die verschiedenen Aspekte des Geschäfts geeignet ist.
Bei ChatGPT scheint dieses Risiko moderat zu sein. Positiv wirkt sich aus, dass es sich um ein vielseitiges Produkt handelt, das in vielen verschiedenen Bereichen und Anwendungen eingesetzt werden kann. ChatGPT basiert auf großen Datensätzen, die in der Regel aus öffentlich zugänglichen und anderen Quellen stammen können. Diese Datensätze sind mittlerweile live-scrapped aus dem Internet. Dies birgt jedoch ein Risiko, da sie nicht mehr durch menschliche Interaktion geprüft und gefiltert wurden.
Zudem ist es kritisch, inwiefern ChatGPT in der Lage bzw. nicht in der Lage ist, urheberrechtlich korrekt zu sein. Dies gilt für jegliche Inhalte (Text, Bilder, Code,…), die ChatGPT generiert. Im Kontrast dazu zeigt Shutterstock AI https://www.shutterstock.com/de/ai-image-generator) wie urheberrechtlich mit dem Problem umgegangen werden kann.
Welche Monetarisierung(en) am Ende verwendet wird, scheint bisher offen. Aktuell ist die Nutzung frei und der Account kann für 20 Dollar im Monat aufgewertet werden, um eine bessere Verfügbarkeit, Konnektivität und Geschwindigkeit zu erhalten. Weitere Geschäftsmodelle wären zusätzlich möglich:
- Lizenzierung: Unternehmen oder Organisationen könnten eine Lizenzgebühr bezahlen, um das ChatGPT-Modell in ihren eigenen Anwendungen oder Produkten zu integrieren.
- Werbung: Ein weiteres Geschäftsmodell könnte darin bestehen, dass Unternehmen oder Marken Anzeigen auf der Plattform schalten oder Sponsoring-Deals eingehen, um ihre Produkte oder Dienstleistungen zu bewerben.
- Individuelle Quellen: Unternehmen könnten für z. B. ihren Support Chat die Möglichkeit erhalten, eigene Quellen einzubinden, um die eigenen Use Cases optimal abzubilden
Ethical Risk
Dieses Risiko beschäftigt sich damit, ob das Produkt im aktuellen Kontext der Gesellschaft, Politik und Weltlage gebaut werden sollte. Dieses Risiko ist bei ChatGPT als sehr hoch zu bewerten.
So gibt es Sicherheitsrisiken hinsichtlich Angriffen auf KI-Modelle wie ChatGPT. Diese können eine Fremdsteuerung des Modells zum Ziel haben. Dadurch könnten gezielt Desinformationen verbreitet werden, um beispielsweise Wahlen zu manipulieren. Auch der Diebstahl und Missbrauch von User-Daten wäre denkbar.
Vor derartig böswilligen Anwendungsfällen warnt auch bereits Europol in einer öffentlichen Mitteilung: “Die Fähigkeiten von ChatGPT eignen sich für eine Reihe potenzieller Missbrauchsfälle im Bereich des Terrorismus, der Propaganda und der Desinformation. So kann das Modell verwendet werden, um allgemein mehr Informationen zu sammeln, die terroristische Aktivitäten erleichtern könnten, wie z. B. Terrorismusfinanzierung oder anonymer Dateiaustausch“.
Neben diesen Sicherheitsrisiken bestehen auch ethische Risiken. Sprachmodelle wie ChatGPT könnten Vorurteile und Diskriminierung aus Quellinformationen wiedergeben oder gegebenenfalls sogar verstärken. Durch die einfache Generierung von Informationstexten werden die Fähigkeiten, sich Wissen anzueignen und Texte zu formulieren, Schaden nehmen. Auch das kritische Hinterfragen von Informationen ist ein Faktor, da diese Modelle leicht als unfehlbar betrachtet werden könnten, eine Quellenanalyse nicht möglich machen und aber in manchen Fällen faktisch inkorrekt antworten (“halluzinieren“). Ferner sind negative Auswirkungen auf die Fähigkeit zu einer angemessenen und effektiven zwischenmenschlichen Kommunikation und ein Verkümmern von sozialen Kompetenzen zu erwarten.
Weiterhin ist der mittlerweile erfolgte Anschluss ans Internet, um live-scrapped Daten in Antworten einfließen zu lassen, als höchst kritisch zu betrachten. Durch die fehlende Validierung durch einen Menschen können problematische Inhalte z. B. Desinformationen ins System gelangen und durch dieses verbreitet werden.
Conclusio
Mit dem Anschluss von ChatGPT an das Internet kann das vermeintliche Ziel eines “Google 2.0“, eines allwissenden Tools, erreicht werden. Der Anschluss an das Internet stellt allerdings aus den oben genannten Gründen ein enormes Risiko dar. Dieses Risikos gilt es schnellstmöglich Herr zu werden, damit das System weiterhin seine Integrität behält.
Solange dieses Risiko existiert, ist ChatGPT unserer Einschätzung nach nicht für einen breiten und generischen Ansatz geeignet.
Allerdings ist die “Generative AI“ ideal geeignet, um klar umrissene Use Cases abzubilden. Beispielsweise könnte damit ein Chat-Assistent realisiert werden, der zu einem konkreten Produkt Hilfestellung leisten kann. Hierbei kommen die Stärken des Modells deutlich zum Tragen. Es bietet z. B. ein hohes Potential zur Kostenoptimierung und Kundenbindung in den unterschiedlichsten Bereichen. Weitere Beispiele und Informationen gibt es hier: (https://www.inovex.de/de/leistungen/artificial-intelligence/generative-ai/)