AI-Engineer, Künstler, Fernstudent: Der Nigerianer Justin Irabor hat einiges zu bieten. Wir sprechen mit ihm über die Grenzen von AI, das Ende der Kunst und was es Dir bringt, mit AI zu schummeln.
AI kann lügen. AI kann Kunst klauen. AI kann Studierenden beim Schummeln helfen. Gibt es überhaupt noch etwas Gutes an AI? Jede Menge. Justin Irabor macht nicht nur ein Fernstudium, er arbeitet auch im Synthetic Teaching Department der IU Internationalen Hochschule. Grund genug, ihn zu AI zu löchern – zu guten wie zu schlechten Seiten.
Das Interview in voller Länge seht ihr im Video auf Englisch. Darunter findet ihr das deutsche Transkript zum Nachlesen.
Lass uns gleich einsteigen, Justin. Was liebst Du an AI?
Justin: Vor allem liebe ich an AI, wie überraschend die Fortschritte in den letzten Jahren waren. In den letzten drei Jahren wurden alle Vorhersagen und Annahmen über AI neu kalibriert. Früher war AI vielversprechend, erforderte aber zu viel Handhabung. Die Art der Datenverarbeitung, die man von AI erwartete, war nicht beeindruckend, aber vielversprechend.
Und jetzt haben wir diesen großen Sprung gemacht, und es ist ein sehr beeindruckendes Gebiet geworden. Wir haben Produkte, die die Verbraucher erreichen. Zum Beispiel ist der Empfehlungs-Algorithmus von YouTube beeindruckend, weil die Videos, die man als nächstes sieht, immer besser werden, je mehr man YouTube schaut. Aber niemand muss wirklich über die zugrunde liegende Technologie nachdenken.
Und jetzt hat man große Sprachmodelle direkt in die Hände der Menschen gegeben, und sie können zum ersten Mal sehen, wie unheimlich nah simulierte Intelligenz an menschliche Intelligenz herankommen kann. Und alle finden das unglaublich. Ich denke, die Arbeit in der AI gibt mir jeden Tag die Möglichkeit, über etwas zu staunen.
Gibt es etwas, das Du an AI hasst?
Justin: Wie alle Menschen habe ich diese allgemeine, formlose Angst, die jeder vor AI hat. Sie wird unsere Jobs übernehmen. Sie wird uns aussterben lassen. Wir werden von AI unterjocht. Jeder hat diese Ängste, und ein Teil davon ist einfach aufgrund unseres Selbsterhaltungstriebes. Ein anderer Teil ist eine Art Massenhysterie. Was ich an AI nicht besonders mag, ist, dass sie Macht in den Händen von wenigen Menschen konzentriert. Denn um im aktuellen LLM*-Spiel mitzuspielen, braucht man viel Rechenleistung. Und das erfordert Geld. Man braucht Investitionen von großen Tech-Firmen und der Regierung, was bedeutet, dass es kein demokratisches Spiel ist. Nicht jeder kann eine AI aufbauen, um in diesem Bereich zu konkurrieren.
Deshalb brauchen wir mehr und mehr Leitplanken. AI muss offen sein, und viele Leute und Interessengruppen bewegen sich in Richtung geschlossener AI. Das bereitet mir gewisse Sorgen, wenn ich ehrlich bin. Ich halte immer Ausschau nach Wegen, wie Hauptakteure im AI-Bereich daran arbeiten, Open-Source-AI-Modelle zu erstellen, und interessanterweise hat Facebook in diesem Bereich viel gute Arbeit geleistet.
*Large Language Models (LLM)
AI ist kein demokratisches Spiel.
Du bist selbst Student. Wie nutzt Du Syntea?
Justin: Ein wesentlicher Aspekt, warum ich mich an der IU beworben habe, war, dass Syntea Zugang zu genauso viel Kontext hat wie ich. Bevor ich mich an der IU beworben habe, hätte ich nicht erwartet, wie mächtig und nützlich Syntea für mich sein könnte. Aber Syntea kann meine Lehrbücher lesen. Sie versteht meine akademischen Ziele. Sie bietet mir ein individuelleres und maßgeschneiderteres Lernerlebnis als die Arbeit mit einem normalen Modell. Und je mehr ich im Laufe des Kurses Fortschritte mache, desto mehr weiß Syntea, wie weit ich gekommen bin.
Und nun als jemand, der an Syntea arbeitet: Wir haben es so gemacht, dass Syntea weiß, wann Du bereit bist, eine Prüfung abzulegen, weil sie verfolgt, was Du weißt. Das ist wirklich toll. Sie ist also nicht nur eine Studienassistentin, sondern auch eine Erfolgassistentin in dem Sinne, dass sie Dir eine Bewertung gibt und Dein Wissensstand im Vergleich zu Deinen Kurszielen testet. So findet sie heraus, ob Du bereit bist, die Prüfung zu schreiben. Und dann sagt sie, Du bist jetzt bereit.
Wenn Du jemals den Film Karate Kid gesehen hast, fühlt es sich so an, als ob Mr. Miyagi Karate Kid trainiert, anstatt nur eine Assistentin, die gedankenlos auf Eingaben antwortet, ohne ein Ziel für Deinen eigenen Erfolg zu haben.
Persönlich finde ich es immer schwierig, sich an neue Technologien anzupassen. Vielleicht stehen unsere Studenten vor der gleichen Herausforderung. Wie können sie sich an die Nutzung von Syntea gewöhnen?
Justin: Das ist vielleicht eine unbeliebte Meinung, aber ich denke, dass richtig Prompten echt schwer ist. AI-Modelle Fragen zu stellen ist auf einer Ebene sehr einfach. Man stellt einfach eine Frage. Aber auf einer anderen Ebene muss man irgendwie Infos aus dem Modell herauslocken. Die meisten Leute checken nicht, dass man beim Sprechen mit Modellen seine Fragen so gestalten muss, dass sie die erwünschten Antworten liefern. Es ist nicht das Gleiche wie eine Suchmaschine zu benutzen. Es ist, als würde man einer Person, die man noch nie getroffen hat, eine Frage so stellen, dass sie sich an die Antwort erinnert, aber man weiß nicht, welche Antworten sie im Kopf hat. Es ist also ein bisschen ein Paradoxon.
Wenn Du mit LLMs interagierst, ist das Beste, sie viel zu benutzen. Dann bekommst Du ein Gefühl dafür, wie sie funktionieren. Wir versuchen, es den Leuten leicht zu machen, die richtigen Antworten zu erhalten. Wenn Du zum Beispiel eine Frage zu Deinem Kursbuch hast, kann Syntea die Antwort Direkt aus Deinem Kursbuch holen, da sie das Buch selbst lesen kann. Und zweitens kann sie den Professor, der für die Lektionen zuständig ist, bitten, die Antwort zu überprüfen, damit Du nicht in die Irre geführt wirst. Das sind zwei Ebenen der Ursprungs- und Qualitätskontrolle, um sicherzustellen, dass die Qualität der Antworten, die Du von LLMs erhältst, ausgezeichnet ist. Aber am Ende musst Du sie einfach viel nutzen, um Dich daran zu gewöhnen. Ich denke, die Leute haben diese Phase, in der sie, wenn sie ein LLM zum ersten Mal benutzen, begeistert sind, wie unglaublich intelligent es ist. Dann werden sie sofort frustriert, weil sie manchmal Fragen stellen und keine idealen Antworten erhalten. Und das ist wie der Widerstandspunkt. Du musst einfach darüber hinausgehen. Dann wirst Du besser darin, Fragen zu stellen. Und dann erreichst Du ein Gleichgewicht mit der Technologie. Du musst einfach mehr Eingaben machen, um dort hinzukommen.
Für manche ein Segen, für andere ein Fluch: Was, würdest Du sagen, ist die größte Schwäche von AI?
Justin: Die größte Schwäche von AI heute ist, dass sie kein echtes Verständnis der Welt hat. Sie kennt keine grundlegende Wahrheit. Als Menschen sind wir der AI überlegen, weil wir in der Welt existieren. Zum Beispiel kann ich anfangen zu sagen, dass es regnet, dann in den Himmel schauen und sehen, dass es nicht regnet. Dann kann ich meine Meinung ändern und sagen, oh, es tut mir leid, es regnet nicht. Und Modelle können das nicht. Sie können nicht sagen, ob eine Sache wahr ist. Sie können wirklich intelligente Vermutungen anstellen, aber am Ende des Tages wissen sie es nicht. Deshalb sind sie anfällig für Halluzinationen, also dafür, Dinge zu erfinden. Sie sind anfällig dafür, falsch zu liegen. Wenn Du also weniger über ein beliebiges Thema weißt als ein LLM, ist es sehr wahrscheinlich, dass Du in die Irre geführt wirst. Sie lügen manchmal sehr überzeugend, und Du kannst nicht erkennen, dass sie lügen. Das ist also ein Problem mit LLMs. Ich würde sagen, das ist ein Risiko, sich ausschließlich auf AI zu verlassen. Du kannst AI als Ergänzung zu einer grundlegenden Wahrheit in Deiner Realität nutzen, aber Du kannst die Realität heute nicht Durch eine AI ersetzen. Das wäre ein Fehler.
Richtig zu prompten, ist wirklich schwer.
Du bist nicht nur ein Techie, Du bist auch sehr kreativ: Als begabter Blogger und talentierter Cartoonist. Glaubst Du, AI kann Kunst und Kreativität überflüssig machen?
Justin: Ich glaube nicht, dass sie das kann, aber ich befürchte, dass AI weniger künstlerische Ausdrucksformen lohnenswert macht. Viele Menschen argumentieren, dass die Art von künstlerischen Bestrebungen, die durch AI verdrängt werden, wahrscheinlich von vornherein nicht lohnenswert waren. Aber ich glaube nicht, dass das stimmt. Ich denke, dass Menschen jede künstlerische Tätigkeit verfolgen sollten, die sie möchten. Und immer mehr Menschen zögern, ihre Kunst online zu teilen, weil sie einfach in die AI-Trainingsdaten einfließen wird und dann überflüssig wird. Und philosophisch gesehen ist das etwas, das mich verwirrt.
Ich bin in der privilegierten Position, dass ich Kunst nicht für Geld machen muss. Ich kann Kunst aus Spaß machen, also ist es mir egal, ob LLMs mit meinem geistigen Eigentum trainiert werden. Aber für begabte Künstler, Fotografen und Filmemacher war das ihr Leben lang ihr Lebensunterhalt. Und jetzt tippt jemand einfach in den Computer: „Ich will einen Kurzfilm im Stil dieses Künstlers“, und dann wird der einfach automatisch generiert. Das ist unglaublich, oder? Du verwendest theoretisch meine Arbeit, aber weil Du sie durch ein LLM gejagt hast, kannst Du dann beanspruchen, Eigentümer davon zu sein. Diese legale Grauzone gab es vorher nicht, und das macht viele nervös.
Du hast persönlich Dein eigenes AI-System erstellt. Was würdest Du sagen, war die größte Herausforderung des Prozesses?
Justin: Als ich meinen Assistenten erstellte, waren wir noch nicht bei GPT 3.5. Wir waren irgendwo im Ada Text DaVinci Zeitalter*. Und das Problem mit dem Ada Text DaVinci Zeitalter war, dass es absoluten Blödsinn produzieren konnte. Heutzutage, wenn Du einem LLM eine Frage stellst wie „Was ist die Hauptstadt von Indien?“, gibt es eine sehr klare Antwort auf diese Frage. Wenn Du versuchst, ein GPT 3.5 und höher Modell in die Irre zu führen, wird es Dich darauf hinweisen und sagen, dass das nicht stimmt. Frühere Modelle konnten das nicht. Sie waren wirklich schlecht darin zu wissen, was der Zustand der Welt war.
Zur Zeit meiner Künstliche-Intelligenz-Kurse versuchte ich absichtlich, das Modell in die Irre zu führen. Es hatte Zugang zu allen meinen Lernmaterialien und würde trotzdem sagen, ja, Du hast recht. Also musste ich explizitere Eingaben machen, bei denen ich dem Modell eine Frage gab, es eine Antwort erstellen ließ, dann eine irreführende Antwort kontrollieren ließ und es dann bat, die beiden zu vergleichen.
Es war ein vierstufiger Prozess anstatt eines einstufigen Prozess, der das Modell zum Denken zwang. Wir machen heutzutage immer weniger davon, weil Modelle viel intelligenter geworden sind. Aber das war meine größte Herausforderung. Die Tatsache, dass die Modelle wirklich dumm waren.
Was hat am meisten Spaß gemacht?
Justin: Am meisten Spaß beim Programmieren meiner Assistentin war, ihr eine Persönlichkeit zu geben. Am Anfang war es wirklich nur ein generisches Modell. Dann habe ich mein erstes Feintuning gemacht, ich habe es auf meine Schriftsprache abgestimmt. Ich habe einen unverwechselbaren Schreibstil, den Leute irgendwie erkennen. Nach dem Feintuning hatte ich also dieses benutzerdefinierte Modell, das wie ich schrieb, und das ich Abonnenten und zahlenden Nutzern zugänglich machte. Die Leute im Internet sagten, es fühle sich an, als würden sie mit mir sprechen, weil es einen nigerianischen Schreibstil hatte, den Nigerianer cool fanden. Leute schickten mir Screenshots ihrer Gespräche und hätten schwören können, sie schreiben mit mir und nicht mit dem Modell. Das fand ich wirklich lustig. Leute sagen mir oft, dass ich einen unverwechselbaren Schreibstil habe, aber ich konnte ihn nie selbst sehen, bis das Modell anfing, wie ich zu schreiben. Das war für mich das Größte.
* Verschiedene Modelle und Versionen
AI kann bestimmte Kunstformen verdrängen.
Früher war AI unterentwickelt, jetzt hat sie sich stark weiterentwickelt. Wie, glaubst Du, sieht die Zukunft von AI aus?
Justin: Ich bin wirklich schlecht in Vorhersagen. Ich habe noch nie richtig vorhergesagt, also verlass Dich auf nichts von dem, was ich sage. Ich denke, dass wir langsam ein hartes Limit erreichen, was wir mit den Durchbruch-Innovationen erreichen können, die uns hierher gebracht haben. Ich denke, dieses Gleichgewicht ist genug für den nächsten Schritt in der AI.
Im Moment geht viel Arbeit in AI-Modellen in die Inhaltserstellung. Aber das wirkliche Problem ist, dass wir ein sehr reales Risiko der Vergiftung des Datensatzes haben. Wenn ein signifikanter Teil des Internets aus synthetischen Videos, Texten und Audiodateien besteht, dann trainierst Du ein Modell auf synthetischen Daten. Es kommt zu dem Punkt, an dem die Qualität abnimmt; sie wird nicht immer origineller.
Deshalb müssen wir einen neuen Mechanismus entwerfen, durch den Modelle die Art von originalem Denken erreichen können, die Menschen haben. AI-Modelle sind wirklich intelligent. Sie sind wirklich, wirklich großartig in allem, und manchmal können sie so tun, als hätten sie originales Denken. Aber es ist immer noch, denke ich, eine Nachahmung menschlicher Originalität. Das müssen wir überwinden. Und ich denke nicht, dass der Aufmerksamkeitsmechanismus, den wir derzeit verwenden, der richtige ist.
Immer mehr Leute finden Wege, mehr Inferenz mit geringeren Rechenkosten zu erreichen, und wir können die Kosten der Rechenleistung senken. Dann haben wir mehr Ressourcen, um etwas anderes zu erschaffen. Ich weiß nicht, was dieser Mechanismus sein wird. Ich habe nicht genug Erfahrung in NLP und AI, um das vorherzusagen. Aber ich denke, dass wir einen weiteren Durchbruch in der AI brauchen, der uns vom Aufmerksamkeitsmechanismus wegbringt oder darauf aufbaut, und dann werden wir es schaffen.
GPT-4 ist seit einer Weile auf dem Markt. Es sind zwei Jahre vergangen. Und ich denke, dass wir eine Stagnation erreichen. Und das ist wahrscheinlich eine gute Sache, weil wir zu schnell unterwegs waren. Es gab einmal ein großes Desinformationsproblem. Und jetzt werden wir stabiler.
Du arbeitest an Syntea, einer AI, mit der Studis lernen können. Im Allgemeinen nutzen viele Leute AI und ChatGPT, um schneller im Studium voranzukommen. Würdest Du sagen, Lernen mit AI ist Schummeln?
Justin: Lernen mit AI kann Schummeln sein. Ich denke, wenn Du erfolgreich mit AI schummeln kannst, dann war der Test, der entworfen wurde, um Dein Wissen zu testen, nicht gut gestaltet. Da sind jetzt wir gefragt und die Art und Weise, wie wir Tests für menschliche Intelligenz entwerfen.
Eine der frühesten Erkenntnisse über LLMs war: Es gibt Aufgaben, die für Menschen wirklich schwer zu bewältigen, aber für LLMs trivial sind. Mathematik, Aufsatzschreiben, diese Dinge erledigen LLMs besser als der durchschnittliche Mensch. Und dann gibt es wirklich leichte Aufgaben für Menschen, die für LLMs wirklich schwierig sind. Viele davon beinhalten einfaches Denken und Logik.
Nehmen wir dieses Rätsel, bei dem Du eine Ziege und einen Wolf hast und sie über einen Fluss bringen musst oder so etwas. Selbst wenn ein Mensch daran scheitert, kann der Mensch darüber nachdenken und seine Fehler erkennen. Worauf ich hinauswill: Wir sollten Tests auf menschliches Verständnis und nicht auf Aufgabenerfüllung ausrichten. Wenn Du auf Aufgabenerfüllung testest, dann kann ein LLM den Test bestehen. Ein LLM kann Dich glauben machen, ein Mensch hätte den Test bearbeitet, und dann könntest Du jemandem eine Note geben, die er nicht verdient.
Du kannst ein LLM verwenden, um einen Test für Menschen zu entwerfen, und ein LLM kann den Test bestehen. Und danach kannst Du ein LLM als Korrektor verwenden, was bedeutet, dass nicht einmal echte menschliche Interaktion stattgefunden hat. Ein LLM hat den Test erstellt, ein LLM hat ihn bestanden, und danach hat ein LLM ihn korrigiert.
In vielerlei Hinsicht kommen wir dahin. Du könntest technisch durchs Leben gehen und akademische Titel einsacken, ohne überhaupt etwas zu wissen. Aber dann ist die Frage: Was hast Du davon? Du lernst doch eigentlich, um besser zu werden. LLMs sind sehr teure Simulationen des menschlichen Gehirns. Was Millionen von Dollar kostet, hast Du von Geburt an in Deinem Kopf. Mach Dir lieber das zunutze. Leute können wahrscheinlich ziemlich leicht bei bestimmten Tests schummeln. Aber später im Leben werden sie das bedauern. Ist zumindest meine Meinung.
Natürlich kannst du schummeln – aber warum solltest du?
Schummeln bedeutet schließlich, Dich selbst um das Wissen zu bringen.
Justin: Ja, genau. Wenn Du andere vera****t, vera****t Du Dich selbst. Ich habe neulich eine Geschichte gelesen über eine Lehrerin, die kreatives Schreiben unterrichtete. Sie bat ihre Schüler, einen Aufsatz zu schreiben. Und einige Schüler verwendeten ein LLM. Und sie fragte sich: Warum meldest Du Dich zu einem Kurs für kreatives Schreiben an, wenn Du nicht kreativ schreiben möchtest? Das wirkt sich auch auf Deine Zukunft aus.
LLMs sind eine durchschnittliche Form menschlicher Intelligenz, nicht die extreme. Wenn Du künstliche Intelligenz in Aktion siehst, ist es wie eine Stichprobe aller kollektiven menschlichen Intelligenz, aller jemals geschriebenen Bücher, aller Aufsätze, alles. Das Modell findet die beste Art und Weise, Worte zusammenzustellen, um neue Ausführungen desselben zu schaffen. Aber die einzigen, die wirklich bahnbrechendes Schreiben schaffen können, sind echte Menschen.
Und wenn Du nicht das tust, was Du tun sollst, dann wirst Du es nie lernen. Du wirst nur selbst wie ein LLM. Und das ist das Ding: Es ist gut für ein LLM, wie ein LLM zu sein. Aber nicht für einen Menschen.
Toller Schlusssatz. Vielen Dank für das Interview.
Justin: Hat mich gefreut.
Du willst auch ein Ferstudium, bei dem Du mit einem KI-Assistenten lernst? Dann sieh Dich jetzt bei unseren Studiengängen um und schreibe Dich einfach online ein!
Das Studileben steckt voller Möglichkeiten! Mit meinen Texten will ich Dir helfen, sie zu entdecken. Als Redakteurin an der IU Internationale Hochschule begleite ich Dich dabei durch Deinen Alltag. Ist der Laptop zugeklappt, tanze ich oder zeichne Cartoons über die kleinen Dinge im Leben. Meine Freund:innen habe ich dabei gerne an meiner Seite.
Xaveria Inman
IU Redakteurin