Dr. Simonas Cerniauskas, CTO und Mitgründer der tisix.io GmbH, und Bettina Blaß, Journalistin und freie Mitarbeiterin beim Kölner KI-Start-up, haben das neue Modell von OpenAI untersucht. Simonas betrachtet "o1-preview" technisch, Bettina fragt sich, welchen Nutzen es für die Medienarbeit bietet.
Bettina: Das neue Modell von OpenAI ist seit einigen Wochen auf dem Markt, und es gibt bereits viele Berichte darüber. Der Name sorgt für Verwirrung: Auf GPT-4 folgt o1-preview. Was weißt du darüber?
Simonas: Ja, die Namensgebung ist ungewöhnlich. Viele erwarteten GPT-5, 6 oder 10, aber es kam o1. Das "o" steht für "omni", da es mehrere Modalitäten vereint und mehr kann als die Vorgängermodelle.
Was ist deiner Meinung nach der wichtigste Unterschied?
Es ist ein geschlossenes Modell, daher können wir nur vermuten, was sich verändert hat. Man nimmt an, dass das Modell vor der Beantwortung einer Frage verschiedene Planungsschritte durchläuft. Ein kleineres Modell analysiert und bewertet diese Schritte, um die optimale Antwort zu finden. Deshalb dauert es länger, bis man ein Ergebnis erhält.
o1 ist also langsamer. Ist das nicht eigentlich ein Nachteil?
Grundsätzlich ja, aber die längere Wartezeit lohnt sich, da die Antworten, besonders auf komplexe Fragen, besser sind. In der Forschung ist das ein Fortschritt oder zumindest ein neuer Ansatz, den andere nun ausprobieren werden. Ich habe dem neuen Modell eine typische Physikfrage aus der achten oder neunten Klasse gestellt und war mit dem Ergebnis sehr zufrieden.
Bevor das Modell eine Frage beantwortet, steht "Denkvorgang" auf dem Bildschirm. Denkt GPT o1 wirklich, Simonas?
Nein, das ist ein Antromorphismus. Das Modell denkt nicht im menschlichen Sinne. Es analysiert und testet verschiedene Lösungswege und liefert dann das Ergebnis nach einem bestimmten Algorithmus. Wir sehen nur das Endergebnis, nicht die vielen Wege, die dorthin führen könnten. Das ist schade, denn würden wir sie sehen, könnten wir den Lösungsweg beeinflussen.
Wie könnte das neue Modell Journalistinnen und Journalisten unterstützen?
Zahlen sind in der Medienbranche wichtig, besonders im Printbereich. Ein Artikel muss eine bestimmte Zeichenanzahl haben, um auf die Seite zu passen. Man sagt, o1 kürzt besser als die Vorgängermodelle. Das wäre also eine Einsatzmöglichkeit.
Ein KI-Tool, das gut kürzen kann, wäre sehr hilfreich, da man oft nicht einfach Absätze weglassen kann, sondern den Inhalt in weniger Zeichen erhalten muss. Meine Erfahrungen mit GPT o1 sind jedoch gemischt. Ein 10.000 Zeichen langer Text wurde erfolgreich auf 2.000 gekürzt, aber es gab auch Ergebnisse, die zu lang blieben. Woran liegt das?
Ich vermute, es hängt mit der Dauer des Kürzungsvorgangs zusammen. Bei komplexen Texten braucht das Modell Zeit. OpenAI sammelt vermutlich Daten darüber, wie lange Nutzer und Nutzerinnen höchstens auf eine Antwort warten. Liegt die Grenze bei vielleicht 19 Sekunden, wird ein unfertiges Ergebnis präsentiert. Hätte das Modell mehr Zeit, wäre die Antwort wahrscheinlich besser. Das sehen wir auch bei der Entwicklung unserer KI-Produkte für Verlagshäuser. Lassen wir den Tools mehr Zeit, gelingt die Kürzung gut, also plus/minus 20 oder 30 Zeichen.
Du sprichst den tisix. io Verlags-Copiloten an, richtig?
Genau. Unser Verlags-Copilot unterstützt regionale Medienhäuser umfassend: beim Schreiben, Kürzen und sogar bei der Erstellung von Audio- und Video-Content.
Du musst vielleicht nochmals erklären, warum Verlagshäuser eure Tools nutzen und nicht die kostenlosen KI-Tools aus dem Internet.
Ein gutes Beispiel aus dem Alltag ist das Kürzen: Verlagshäuser, die den tisix. io Verlags-Copiloten nutzen, können ihn so konfigurieren, dass er genau die gewünschten Ergebnisse liefert. Sie können beispielsweise auch Stilrichtungen vorgeben. Außerdem geht es um Datenschutz: Unsere Tools laufen auf den Servern der Kunden. Sie behalten die Kontrolle über ihre Daten und trainieren mit ihnen keine Modelle auf ausländischen Servern.
Ich glaube, dass dieses Bewusstsein noch nicht in allen Verlagshäusern angekommen ist. Aber wir stehen ja auch noch am Anfang der KI-Entwicklung. Was glaubst du: Was erwartet uns in den nächsten zwölf Monaten?
Vorhersagen sind schwierig, aber ich denke, die Entwicklung wird weiter von geschlossenen zu Open-Source-Modellen gehen. Die Geschwindigkeit, mit der es zu einem geschlossenen Modell eine Open-Source-Alternative gibt, wird vermutlich weiterhin zunehmen. Außerdem wird sich KI weiter Richtung Multimedia entwickeln. Bild- und Video-Generatoren gibt es zwar schon, aber sie werden noch besser.
Das klingt, als ob wir weiterhin eine spannende Reise in der KI-Entwicklung vor uns haben.
Ja, wir verfolgen das täglich und testen natürlich auch vieles. Ich bin sicher, die Entwicklung wird nächstes Jahr nicht langsamer sein als dieses Jahr.
Übrigens: Wir sprechen nicht nur über KI, wir nutzen sie auch. Der KI-Assistent in unserem Videokonferenz-Programm hat unser Gespräch zusammengefasst und aufgezeichnet, und die Transkriptionssoftware von Microsoft hat unsere Audiospur in einen Textentwurf verwandelt. Das Ausformulieren haben wir übernommen, bevor eine KI den Artikel redigiert hat. Das spart viel Zeit. Trotzdem haben wir den Artikel natürlich am Ende überarbeitet, denn Qualitätssicherung gehört zu unserem Alltag mit KI.
Sie möchten KI auch sinnvoll in Ihrem Unternehmen integrieren? Dann vereinbaren Sie ein unverbindliches Erstgespräch mit uns.