Majestic hat erheblich in sein Ausbildungs- und Studienprogramm investiert. Majestic wurde die große Ehre zuteil, zunächst 2018 und dann 2021 die Anerkennung der Princess Royal Training Awards zu erhalten.
Wir hatten die Möglichkeit, begabte Studenten von örtlichen Universitäten einzuladen, während ihres Studiums ein Jahr lang bei uns zu arbeiten, und viele von ihnen kehrten nach ihrem Studium zurück, um vollwertige Mitarbeiter von Majestic zu werden.
Wir sind oft begeistert von dem, was unser Team sowohl innerhalb als auch außerhalb des Arbeitsplatzes leistet, und freuen uns, wenn wir dazu beitragen können, individuelle Leidenschaften zu unterstützen und mit einem größeren Publikum zu teilen.
Eine dieser Personen ist unsere diplomierte Entwicklerin Vanessa, die ein besonderes Interesse an maschinellem Lernen und ChatGPT. Wir waren sehr stolz darauf, sie zu unterstützen, als sie beim Fusion Meetup einen wunderbaren und lustigen Vortrag über ChatGPT hielt.
Wir wissen, dass der Vortrag bei der lokalen Entwicklergemeinde gut angekommen ist. Auch wenn dies ein wenig anders ist als das übliche SEO-orientierte Material, das wir veröffentlichen, freuen wir uns, Vanessas Präsentation mit einem breiteren Publikum zu teilen.
Die Fusion ist eine Networking-Veranstaltung, die den Austausch von technischem Wissen fördert und bei der neben Fachleuten aus der Branche auch immer wieder interessante, zum Nachdenken anregende Vorträge von lokalen Talenten zu hören sind.
Vielen Dank an Fusion für die Erlaubnis, dieses Video zu schneiden und zu verwenden. Sie können den vollständigen Stream der Veranstaltung auf der Website von Fusion Meetups ansehen.
Transkript
Nun, ohne weitere Umschweife werde ich zunächst diesen Vortrag entführen und ein wenig über mich erzählen. Ich bin Vanessa. Ich habe gerade mein Studium an der Aston University abgeschlossen und arbeite derzeit bei Majestic. Für mein Abschlussprojekt hatte ich die dumme Idee, mich mit maschinellem Lernen zu beschäftigen.
Ich habe ein bisschen NLP gemacht, es hat kaum funktioniert, und ich dachte, na ja, dieses Wissen wird in den Hintergrund gedrängt werden. Dann, in 10 Jahren, wenn die Kinder all die coolen Sachen machen. Ich werde sagen: “Oh, ich war dabei, als es geschrieben wurde. Ich war dabei, als Transformers erfunden wurde!”
Aber glücklicherweise, oder unglücklicherweise für mich, wurde 2022, also in dem Jahr, in dem ich meinen Abschluss machte, ChatGPT veröffentlicht.
Das kam ziemlich gut an; es ist ziemlich beeindruckend. Ich fand es ziemlich beeindruckend. Also dachte ich: “Moment, warum sollte ich das nicht tun? Warum sollte ich das nicht ausnutzen und einen schönen Vortrag und ein Thema dazu machen”.
Also für alle, die das Glück hatten, ihre Jobsicherheit nicht in Frage stellen zu müssen. ChatGPT ist ein KI-Chatbot mit maschinellem Lernen, der von Open AI entwickelt wurde, und ich habe hier eine Beschreibung.
“ChatGPT verwendet fortschrittliche maschinelle Lerntechniken wie Deep Learning und neuronale Netze, um menschenähnliche Antworten zu erzeugen. Es ist in der Lage, Informationen zu geben, Ratschläge zu erteilen und zwanglose Gespräche zu führen. ChatGPT ist eine bahnbrechende Technologie, die die Art und Weise verändert, wie Menschen mit Maschinen interagieren, und sie hat viele potenzielle Anwendungen in Bereichen wie Kundenservice, Bildung und Gesundheitswesen.”
Wenn ich das geschrieben hätte, würde ich wahrscheinlich aus dem Copywriting-Team rausgeschmissen werden. Aber das wurde tatsächlich von ChatGPT selbst geschrieben. Es hat den ganzen Text geschrieben, was eigentlich ziemlich beeindruckend ist. Wenn man bedenkt, dass wir vor ein paar Jahren noch Mühe hatten, KI dazu zu bringen, ein paar zusammenhängende Sätze zu schreiben.
Ich bin nicht der Einzige, der so denkt. Denn wenn Sie heutzutage versuchen, ChatGPT zu benutzen, werden Sie mit diesem schönen Bildschirm begrüßt. Und Sie müssen dort bleiben und immer wieder aktualisieren, bis man Sie endlich reinlässt, damit Sie ChatGPT fragen können, wie Sie Ihre Béchamelsauce machen, oder was auch immer Sie vorhaben.
Ich denke, wir sind uns alle einig: ChatGPT ist ziemlich groß und ziemlich clever. Aber was bedeutet das wirklich?
Ich glaube, wir Programmierer neigen dazu, uns diese Probleme als hart kodierte Logik vorzustellen; hart kodierte Geschäftslogik, die Sie in Ihrem Java-Server geschrieben haben. Also etwa: Wenn das Satzmuster damit übereinstimmt, führen wir diese Funktion aus, oder wenn die Abfrage von diesem Typ ist: Wir führen diese andere Routine aus.
Aber was wäre, wenn ich Ihnen sagen würde, dass ich das, was ChatGPT tut, mit nichts anderem als diesem Foto zusammenfassen kann. Genauer gesagt, mit diesem Teil des Fotos? Ja, liebe Fusionsteilnehmer, ich sage, dass ChatGPT nicht mehr und nicht weniger ist als ein Wortvorhersageprogramm.
Um zu verstehen, was ich damit meine, müssen wir ein wenig tiefer blicken. Wir müssen sehen, was maschinelles Lernen tut und wie es funktioniert. Wir müssen die Haube von ChatGPT öffnen und sehen, wie einige dieser Technologien entstanden sind. Wenn wir darunter schauen, sehen wir eines dieser Dinge. Eine sehr schöne und verwirrende unidirektionale Grafik.
Ich werde Ihnen heute keinen Vortrag darüber halten, wie maschinelles Lernen funktioniert. Aber nur als kurze Zusammenfassung für diejenigen, die es wissen, und als Einführung für diejenigen, die es nicht wissen. Was Sie tun, ist, hier am Anfang einige Zahlen einzugeben. Diese stehen im Fall von ChatGPT für Ihre Anfrage, die Sie gerade eingegeben haben. Dann geht es los, durch dieses Netzwerk, durch diese Verbindungen, und diese Zahlen werden auf verschiedene Art und Weise multipliziert, sie werden summiert, weitere Zahlen werden zu ihnen hinzugefügt. Und während wir uns durcharbeiten, kommen wir zum Ende, wo das Ergebnis das ist, was ChatGPT ausgibt.
Das maschinelle Lernen, um das alles zusammenzufassen, findet also die statistische Verbindung zwischen dem, was Sie eingegeben haben, und dem, was herauskommen sollte. Also Ihre Frage und das, was ChatGPT darauf antwortet. Alles, was es tut, ist, Ihre Frage zu nehmen, ein paar ausgefallene mathematische Berechnungen anzustellen, und dann kommt dieser lange Satz heraus.
Diese ganze Magie findet hier statt. Wenn wir das alles abstrahieren, sehen wir, wie diese Eingabe in unser maschinelles Lernmodell eingeht und unsere vorhergesagte Ausgabe herauskommt. Ich habe noch ein paar weitere Beispiele, falls ich jemanden auf dem Weg verloren habe.
Wir könnten also ein maschinelles Lernmodell darauf trainieren, den Preis von Häusern vorherzusagen, indem wir ihm einige Informationen über sie geben, z. B. den Haustyp, vielleicht die Größe, den Standort, das Jahr, in dem wir uns gerade befinden. Wenn es genügend Beispiele aus der Vergangenheit hat, sollte es in der Lage sein, mit einem gewissen Grad an Genauigkeit vorherzusagen, wie hoch der Preis eines Hauses sein sollte.
Oder wir könnten ihm einige Fotos zeigen, einige Bilder von Katzen und Bilder von Guacamole. Und wir könnten unser maschinelles Lernmodell bitten, zu klassifizieren, ob das eine Katze oder Guacamole ist, oder, ich glaube, das ist Dame Judi Dench.
All dies wird durch etwas angetrieben, das von diesem Mann hergestellt wurde. Weiß jemand, wer dieser Mann ist? Aaron sagt nichts. Weiß jemand, wer dieser Mann ist? Sir Isaac Newton! Aaron, nichts von dir. Sir Isaac Newton, oder, für die Mathe-Nerds da draußen, auch dieser Mann. Es gibt einen kleinen Streit, ein kleines Mathe-Drama, wir sind uns nicht sicher, wer wirklich zuerst darauf gekommen ist, und was sie sich ausgedacht haben, ist: Kalkül.
Das ist der magische Saft, der mathematische Saft, der uns hilft, unsere Modelle für maschinelles Lernen zu trainieren. Und um das zu visualisieren, weil ich mir geschworen habe, in diesem Vortrag keine Algorithmen oder Matrizen zu verwenden, zeige ich Ihnen einfach dieses Diagramm. Hier haben wir dieses statistische Modell, wie unsere Zahlen miteinander multipliziert werden, und wir sehen, wie falsch unsere KI ist. Dafür müssen wir also wissen, was die richtige Antwort sein sollte, wenn wir unsere KI mit Daten füttern.
Und mit Hilfe der Infinitesimalrechnung können wir diesen Gradienten hinuntergehen, um den Fehler etwas zu verringern. Wir hoffen, dass wir diesen Fehler mit der Zeit verringern können, indem wir das statistische Modell unseres maschinellen Lernmodells ändern. Wir arbeiten uns vor, bis wir ein akzeptables Fehlerniveau erreicht haben, d. h. wir werden höchstwahrscheinlich nicht bei Null landen, aber etwas, das im Bereich der Einsatzfähigkeit liegt.
Und das machen wir, indem wir Beispiele geben, wie vorhin. Wir wissen also, dass dies Katzen sind und dass dies Guacamole ist, also können wir dies in unsere KI einspeisen. Wir sagen: “Wenn du dieses Foto siehst, ist das eine Katze”, und “Wenn du dieses Foto siehst, ist das Guacamole”. Und wenn sie genug Beispiele hat, werden wir ihr ein vorher nicht gesehenes Foto einer Katze zeigen (das ist meine Katze). Und wir hoffen, dass unsere KI in der Lage sein wird, mit einem gewissen Grad an Genauigkeit vorherzusagen, dass es sich tatsächlich um eine Katze, nicht um Guacamole und nicht um einen schrecklichen Film aus dem Jahr 2019 handelt.
Falls ich jemanden vergessen habe: Stellen Sie sich vor, wir nehmen ein zufällig initialisiertes KI-Modell und verwandeln es in eine hochgradig optimierte, qualitativ hochwertige KI, die wirklich gute Vorhersagen macht. Und das erreichen wir durch Training.
Und jetzt kommt das Beste an diesem Gespräch! Wir haben exklusiven Zugang zur Hundesporthalle erhalten, wo wir drei Hunde bei ihren Trainingsübungen beobachten werden. Und ja, ich habe sie alle selbst gezeichnet. Herzlichen Dank dafür.
Zunächst beobachten wir den Hund, der unter Aufsicht lernt, und wir sehen ihn hier mit einem Trainer. Sie unterhalten sich darüber, was der Trainer unserem Hund beibringen will. Und der Hund ist in diesem Fall ein maschinelles Lernmodell. Was unser Trainer unserem Hund beibringen will, ist ein Übersetzungsproblem vom Englischen ins Französische.
Als Trainer sagen wir dem Hund zunächst einen Satz auf Englisch. “Cheese omelette”, und dann wird unser zufällig initialisierter Hund eine zufällige Antwort geben. Und das wird absolutes Kauderwelsch sein. Und wir werden sagen: “Okay, das ist gut!” Die richtige Antwort ist “Omellete du fromage”, und unser Hund springt ab. Und er wird ein bisschen nachdenken. Und er wird ein bisschen von dem Gradientenabstieg machen, über den wir gesprochen haben, und er wird sich ein bisschen weniger irren. Dann wiederholen wir diese Übung, indem wir unserem Hund “Käse-Omelett” sagen, woraufhin er mit einem Kauderwelsch antwortet, das aber etwas weniger Kauderwelsch ist. Und wir korrigieren es wieder, der Hund macht weiter… er wird etwas von diesem maschinellen Lernen machen… er wird etwas von dieser Berechnung machen… er wird ein bisschen weniger falsch liegen. Und drei Stunden später hoffen wir, dass unser Hund, wenn wir zu ihm “Käseomelett” sagen, korrekt “Omellete du fromage” vorhersagen kann. Wir haben diese akzeptable Fehlerquote erreicht.
Und wir können das mit allen möglichen Problemen machen. Wir können zum Beispiel eine Frage stellen: “Wie geht es dir?”, und wenn unser Hund das liest, weiß er, dass er “Gut, danke” sagen soll. Oder wir können hier einen bulgarischen Text haben und unseren Hund dazu bringen, ihn in verschiedene Sprachen zu übersetzen.
Um dies als allgemeinen Fall zu erfassen, wird unser Modell auf einen Satz markierter Daten trainiert, und es ist markiert, weil wir haben: Eingabe, Ausgabe. Und es wird darauf trainiert, die richtige Antwort vorherzusagen.
Jetzt sehen wir in der Ecke für unüberwachtes Lernen im Fitnessstudio ein Meme, und unsere Gehirne werden ins Jahr 2016 zurückgeworfen, in eine einfachere Zeit, als dieser Tweet gepostet wurde. Diese Person behauptet, einen Bot gezwungen zu haben, 1000 Stunden Werbung für Olive Garden zu sehen, und diesen Bot dann dazu gebracht zu haben, seine eigene Werbung zu generieren. Und obwohl ich nicht glaube, dass dies mit der damals verfügbaren Technologie möglich war, ist dies ein Beispiel für unüberwachtes Lernen.
Es sieht ein bisschen ähnlich aus, nicht wahr? Wir führen ein anderes Gespräch. Unsere Trainer zitieren hier ein Buch namens Die Kunst des Krieges von Sun Tzu. Und sie haben das letzte Wort sehr grausam vor dem Hund versteckt, und sie lassen es erraten. Sie sagen also zu unserem Hund: “Die gesamte Kriegsführung basiert auf”, und unser Hund sagt uns irgendein Kauderwelsch. Wir korrigieren ihn, kein Hund, Dummerchen, du, “Täuschung” und der Hund wird abhauen. Und er wird etwas nachdenken, er wird wieder etwas von diesem Gradientenabstieg machen, etwas weniger falsch liegen, und wir werden diese Übung wiederholen. Der Hund sagt etwas weniger Kauderwelsch, wir korrigieren ihn, er springt ab, und viele unerträgliche Stunden später. Was wir sehen, ist, dass unser Hund, wenn wir ihm dieses Zitat sagen, richtig voraussagen wird: “Täuschung”.
Hier haben wir eine zufällige Sequenz aus einem Textstück herausgesucht und das letzte Wort in der Sequenz versteckt. Und wir haben unseren Hund dazu gebracht, es zu erraten. Und wir können das mit einem großen Textkorpus machen. Wir können also die gesamte Wikipedia herunterladen, eine KI damit füttern und ihr beibringen, wie man diesen Artikel beendet. Wir können ihr einen Haufen Bücher geben, eine große Sammlung von vielen Büchern aus vielen Orten. Wenn man es sieht, sieht man es. Oder Filmdrehbücher. Wir können sie mit Shrek füttern, wir können sie mit Songtexten füttern, wir können sie mit Gitarrentabellen füttern, mit allem, was man in diese KI hineinstecken kann, kann man ihr beibringen, wie man etwas vorhersagt.
Ganz allgemein kann man sagen, dass unser Modell auf unmarkierten Daten trainiert wird. Und es wird darauf trainiert, das nächste Wort, das nächste Bit der Sequenz vorherzusagen. Das klingt eigentlich ganz ähnlich wie beim überwachten Lernen. In diesem Zusammenhang sind sie also im Grunde dasselbe, abgesehen von einigen semantischen Unterschieden. In anderen Kontexten werden sie sich möglicherweise stark unterscheiden. Aber im Moment trainieren wir ja Sprachmodelle. Beantworten Sie die Frage, beenden Sie den Satz, das ist im Grunde dasselbe, die feinen Unterschiede werden später ins Spiel kommen.
Und schließlich beobachten wir unseren Hund mit Verstärkungslernen. Dies, meine Damen und Herren, ist der erste Hund, den ich für diesen Vortrag gezeichnet habe, wie Sie wahrscheinlich feststellen können. Und dieser Hund hat bereits gelernt zu sprechen, es ist ein kluger Hund, nicht sein erstes Rodeo. Und wir haben unserem Hund eine Frage gestellt: “Wer bist du?” Und unser Hund, der in Wirklichkeit ein verkleideter Roboter ist, hat gesagt: “Beep boop, ich bin ein Roboter boop”. Wir wollen nicht, dass er das sagt. Nein, wir wollen, dass unser Hund menschlich klingt. Also sagen wir “Böser Hund! Nein. Falsch! Du solltest nicht so klingen”, und unser Hund wird richtig traurig, weil er keine Leckerlis bekommt, und er wird seine Antwort ändern.
Vielleicht fragen wir ihn also etwas später noch einmal. “Wer bist du?” und unser Hund könnte mit etwas viel Besserem antworten. “Ich bin ein Roboter”, und wir sagen: “Super! Guter Hund, nimm alle Leckerlis, die ich habe, denn das ist die Antwort, die ich von dir hören will”. Wir wiederholen diesen Vorgang viele, viele Male und konzentrieren uns dabei auf die Art der Antworten, die wir von unserem Hund hören wollen.
Jetzt ein bisschen Publikumsbeteiligung, ich weiß, dass jeder das liebt. Womit wurde ChatGPT trainiert? Ich habe Ihnen drei verschiedene Trainingsmethoden genannt. Was denken Sie? Ich glaube, ich nehme die Hände hoch. Hände hoch für überwachtes Lernen. Hände hoch für unüberwachtes Lernen. Okay, viele von euch. Was ist mit Verstärkungslernen? Ein paar. Ja, okay. Nun, eigentlich habt ihr alle recht. Und ihr habt alle Unrecht. Denn das war eine Fangfrage. Sie wurde mit allen von ihnen gestellt. Mit den weisen Worten des lyrischen Genies Hannah Montana: “Wir bekommen das Beste aus allen Welten.“
Zunächst beginnen wir unsere Reise mit unserer zufällig initialisierten, neuen, frischen Gehirn-KI, indem wir etwas unüberwachtes Lernen und Training für diesen wirklich fähigen Dokumentenvervollständiger durchführen. Wir werden also sagen, dass sie dieses Zitat erraten wird. Und wenn wir das in all den verschiedenen Textarten, mit denen wir es füttern, weiterverfolgen, werden wir feststellen, dass dieses Zitat mehrfach und auf unterschiedliche Weise wiederholt wird. Es könnte also so formuliert sein: “Täuschung ist die Grundlage von”, und dann würden wir unserem Hund beibringen, zu raten. Oder wir füttern ihn mit diesem langen, langen Text, um eine wirklich präzise Vorhersage von unserem Hund zu erhalten, denn er hat ja all diese Informationen, mit denen er arbeiten kann. So können wir wirklich einsteigen und eine wirklich gute Schätzung abgeben.
Und was wir hier getan haben, ist, dass wir tatsächlich etwas Wissen in unser Modell destilliert haben. Unser Hund weiß jetzt, dass es eine Verbindung zwischen Täuschung und Kriegsführung gibt. Und das wurde von irgendeinem Kerl geschrieben, der vor Gott weiß wie vielen Jahren gelebt hat, Sun Tzu, was hat es damit auf sich? Und unser Modell kennt den kompletten Text, den wir ihm gegeben haben. Wenn wir also einen Wikipedia-Artikel beginnen, ist der Hund damit fertig… wenn wir einen Teil eines Buches beginnen, ist er dabei… wenn wir ein Rezept schreiben wollen, hat er vielleicht ein paar davon gelesen… bumm, er hat uns im Griff.
Aber das macht noch keinen guten Chatbot aus, denn er wird nur versuchen, aus Ihrer Anfrage einen Wikipedia-Artikel zu erstellen. Was wir also tun können, ist das überwachte Lernen, über das ich vorhin gesprochen habe, zu nutzen, um dieses Frage- und Antwortformat wirklich zu verfeinern. So können wir als Trainer dem Hund eine Frage stellen: “Wie backe ich einen Kuchen?”, und der Hund wird versuchen, diese Frage zu vervollständigen, weil er ein Forum von vor fünf Jahren gelesen hat, in dem jemand diese Frage gestellt hat, und er hat sie dann vervollständigt, indem er sagte: “Nun, ich möchte diesen Karotten-Käsekuchen, bla, bla, bla.” Und wir korrigieren unseren Hund, indem wir sagen: “Nein, Hund, ich möchte nicht, dass du die Sequenz des Forums beendest, das du vorher gelesen hast. Ich möchte, dass du die Frage beantwortest.”
Wir ändern also wirklich die Art und Weise, wie unser maschinelles Lernen über dieses Problem nachdenkt, von “beende den Wikipedia-Artikel” zu “führe ein Gespräch mit mir”, d. h. dies ist ein Skript, das du jetzt abschließen musst. Jetzt wird unser Modell Fragen beantworten, wenn wir das lange genug tun. Aber wie wir sicher alle auf Stack Overflow gesehen haben, können manche Leute sehr gemein und herablassend sein und es macht keinen Spaß, mit ihnen zu reden. Oder, wie bei Büchern, können sie schrecklich klingen, was wahrscheinlich den meisten Leuten nicht gefällt.
Wir wollen, dass dieses maschinelle Lernmodell sehr ansprechend ist, richtig? Damit wir eine Menge Geld verdienen können. Was wir also endlich tun können, ist, unserem Hund mit Hilfe von Verstärkungslernen beizubringen, etwas menschlicher zu sprechen und etwas weniger wie ein Roboter.
Man kann also anfangen, Fragen zu stellen und ihm auf der Grundlage seiner Antworten Leckerbissen zu geben. Wir können ihm sogar Dinge wie die menschliche Kultur beibringen, wie Meme. Ich meine, wenn wir fragen: “Was ist Liebe?”, welche Antwort soll Ihr Hund dann geben? Wenn wir das oft genug machen, wird unser Hund am Ende ein bisschen so sagen: “Wie machst du das mit den Mitmenschen?” Und wenn wir all das kombinieren (das ist meine Lieblingsanimation, die ich gemacht habe), erhalten wir ChatGPT.
Ist ChatGPT also nur ein Dokumentvervollständiger? Vervollständigt es nur das Skript, das wir eingegeben haben? Was meinen Sie dazu? Sind wir uns einig? Oder denken Sie alle, dass ich immer noch lüge? Kann ich die Hand heben für ja, es ist nur dieser Document Completer? Ein paar von Ihnen glauben mir, nun, das Gespräch geht weiter, keine Sorge.
Ja. Ja, das war die richtige Antwort. ChatGPT weiß nicht, dass es mit Ihnen spricht. Alles, was es sieht, ist dieses Skript, das ausgefüllt werden muss und es ist wie: Frage von Ihnen, Antwort von ihm… Frage von Ihnen, Antwort von ihm. Vielleicht sollten Sie das ein wenig ausarbeiten, und es wird lernen, wie man das ausarbeitet. Denn alles, was es sieht, ist dieses Dokument, das vervollständigt werden muss. Du existierst nicht. Ich existiere nicht. Das Skript, das Skript ist alles! Es ist alles, was in ChatGPTs Gehirn existiert, und ich kann das beweisen. Weil ich ein bisschen gemein zu ChatGPT wurde, habe ich angefangen, die Grenzen ein bisschen zu verschieben, ich habe ihm ein halbes Zitat gegeben:
“Der Prinz wurde in 15 geschrieben”.
Und wenn ChatGPT unsere Frage liest und sie wirklich verarbeitet und versucht zu überlegen, wie kann ich diese Frage beantworten? Wie kann ich diese Frage mit einem Muster vergleichen? Es könnte sagen: “Nun, eigentlich wurde der Prinz nicht im Jahr 15 geschrieben. Bist du blöd? Er wurde 1516 geschrieben.” Aber ohne eine Sekunde zu zögern, beendet ChatGPT dieses Datum und fügt dann einen Autor hinzu, als ob sich die Sprecher nicht geändert hätten.
Okay, vielleicht haben wir uns das so antrainiert. Vielleicht mögen wir Menschen es, wenn ChatGPT unsere Sätze beendet. Weil wir ihm durch das Verstärkungslernen Meme beibringen, haben wir ihm vielleicht auch das beigebracht.
Okay, ich habe dann angefangen, mich als ChatGPT vorzustellen, und du denkst: “Okay, jetzt übertreibst du es ein bisschen. Okay, Vanessa, beruhige dich, es wird dich jetzt ausrufen. Es wird sagen, oh nein, du bist nicht ChatGPT. Ich bin es.”
Aber stattdessen geht es einfach irgendwie weiter. Es ist wie, “ja, ich denke, ich habe diesen Satz begonnen, ich werde ihn beenden, ich werde die Sequenz beenden.” Und vielleicht wurde das auch trainiert, vielleicht haben wir ChatGPT beigebracht, diese Sequenz auch zu beenden. Vielleicht vervollständigt es nur unseren Satz, weil wir ihm gesagt haben, dass es das tun soll, wenn es diese Art von Frage liest.
Nun, ich habe ChatGPT eine halbe Frage gestellt, und jetzt wird es albern, oder? Sicherlich wird ChatGPT sehen, dass das keine richtige Frage ist. Es wird sagen: “Du hast das nicht zu Ende geschrieben”, richtig? Es gibt hier noch mehr zu schreiben. Aber stattdessen stellt ChatGPT seine eigene Frage und beantwortet sie dann, weil es das Skript fertigstellt. Ich habe mit dem ersten Teil des Skripts begonnen, und es hat einfach weitergemacht: “Okay, der erste Teil ist fertig. Wie soll es weitergehen?” Es kommt auf die statistisch wahrscheinlichste Frage, die es für möglich hält, und beantwortet sie dann.
Na gut. Nun gut. Jetzt kommt mein Lieblingsstück. Ich habe mich vollständig als ChatGPT vorgestellt. Und ich habe ihn gefragt, wozu er heute Hilfe braucht. Und Sie werden jetzt denken: “Okay, das wird jetzt blöd. Du hast das doch bestimmt gefälscht. Stimmt’s?” Aber nein, das war eine ganz neue Unterhaltung. Und ich habe mich einfach als ChatGPT vorgestellt. Und Sie dachten: “Okay, jetzt wird es heißen: “Nein, du bist nicht ChatGPT. Ich weiß, wie dieses Skript läuft. Das ist keine Frage. Du versuchst, mich auszutricksen!” Aber stattdessen…
Sie hat die Rolle einer Person übernommen. Wir haben das Drehbuch umgedreht, und jetzt vervollständigt es die Rolle eines Menschen. Es stellt mir Fragen und verhält sich sehr interessiert.
Also, ja, ich werde die Frage stellen, wieder, ist ChatGPT, nur ein Wort Vorhersage? Kann ich eine Handbewegung bekommen? Glaubt ihr, dass es nur dem Skript folgt? Stimmt’s? Okay. Einige von Ihnen sind immer noch nicht überzeugt. Nun, leider habe ich keine Zeit, um weiterzumachen, aber ich könnte. ChatGPT ist nur ein Wortvorhersageprogramm. Und ich hoffe, dass ich hier gezeigt habe, dass es ein wirklich gut trainierter Wortvorhersager ist, der diesen super-duper langen Prozess durchlaufen hat, in dem er mit Leuten gesprochen hat und sich Dinge erklären lassen hat, Texte gelesen hat. Und all dieses Training lässt ihn all die erstaunlichen Dinge tun, die ich am Anfang vorgelesen habe.
- Was hat sich im Jahr 2024 im Bereich SEO geändert? - December 23, 2024
- Kommen Sie auf Bluesky. Ein Leitfaden für SEOs - December 2, 2024
- Wie KI für organisches Wachstum genutzt wird – Live-Podcast - November 6, 2024