YCP039 - Copilot 3.0 Wissensraum in Notebook erstellen
07.01.2026 29 min Michael Greth
Zusammenfassung & Show Notes
In der ersten Episode 2026 setze ich den inhaltlichen Rahmen für das Jahr.
Mein Fokus: weniger über KI reden, mehr mit ihr arbeiten.
Mein Fokus: weniger über KI reden, mehr mit ihr arbeiten.
Ich spreche darüber, warum mich das Konzept der Wissensräume aktuell mehr interessiert als einzelne Tools. Statt flüchtiger Chat-Ergebnisse geht es um strukturierte Quellenarbeit, überprüfbare Erkenntnisse und nachhaltiges Wissen. Am Beispiel von NotebookLM und Copilot Notebooks zeige ich, wie ich mit klar abgegrenzten Wissensräumen arbeite:
- Quellen sammeln,
- Qualität prüfen,
- gezielt analysieren und
- Ergebnisse so aufbereiten, dass sie auch morgen noch nutzbar sind.
Ein zentrales Thema bleibt dabei meine Überzeugung: Nicht Prompting ist die entscheidende Kompetenz, sondern Delegation und Führung – egal ob gegenüber Menschen oder KI-Agenten.
Diese Episode ist der Auftakt für den Fokus auf produktive Wissensarbeit mit Copilot & KI im Jahr 2026.
Links:
Links:
- ChatGPT History und NotebookLM - Video von Corey McClain https://www.youtube.com/watch?v=NHwdm86qs8A
- Studie "Measuring Human Leadership Skills with Artificially Intelligent Agents" https://arxiv.org/abs/2508.02966
Transkript
Ja, 2026.
Hallo, freut mich, dass du wieder mit dabei seid.
Steigen wir ein!
Your Copilot.
Der Podcast, der hilft, die künstliche Intelligenz in der Microsoft 365 Welt zu verstehen und produktiv zu vers
Anzuwenden.
Mit eurem Co-Piloten Michael Greth.
Ja, hallo und herzlich willkommen zur 39.
Ausgabe des Yo-Copilot Podcasts, der ersten Ausgabe.
Im Jahr 2026.
Ich freue mich, dass ihr wieder mit dabei seid.
Und hier geht es darum, die Künstelligenz in der Microsoft 365 Welt besser zu verstehen und vor allen Dingen produktiv einzusetzen.
Das ist mein Anliegen, auch im Jahre 2026, mit einem speziellen Fokus darauf, wirklich anwenden, ausführen, nicht nur über Tools an sich quatschen, sondern
anwenden.
Und das soll schwerpunktmäßig auch das Thema in 2026 sein.
Und ich möchte natürlich das insbesondere durch meine persönlichen Erfahrungen mit
Qualität und wie sagt es man denn noch so schön?
Ja, mit wirklich gutem Wissen unterlegen.
So, das ist dieses.
Ja, dann
Gucken wir mal, was uns 2026 dringt.
Ich meine, die letzte Woche hat ja schon gezeigt, dass wir irgendwo in einer ziemlich absurden Welt leben.
Das war ja letztes Jahr schon, irgendwie hat das Absurditätslevel ja
einen neuen Höchststand erreicht, aber das ist bei Wald noch nicht, der Peak ist bestimmt noch nicht erreicht, wenn man sich überlegt, wie die EU mal darauf reagieren sollte, falls
Die USA mal Grönland besetzen.
Allein der Gedanke daran, dass man darüber nachdenken muss, ist schon so absurd.
Und absurd ist auch, dass das vielleicht eine realistische
Dass da sogar eine mögliche realistische Variante drin sein könnte.
Gut, aber das soll uns jetzt nicht deprimieren und an diesem Punkt hier halten.
Das werden wir, das werde ich hier auch nicht weiter diskutieren, aber es ist etwas, was einen wirklich im Moment auch.
Ja, nochmal beschäftigt.
Insofern wollen wir uns aber hier in diesem Podcast darauf konzentrieren, uns halt mit der KI auseinanderzusetzen und zu sehen, wie wir das gut einsetzen können.
So, und der thematische Schwerpunkt für die nächsten Wochen.
Wird natürlich neben dem ganz allgemeinen Copilot-Geschehen etwas sein, was sich im letzten, Ende des letzten Jahres auch schon mal schwerpunktmäßig
erwähnt habt, das ist halt das Thema, was machen wir eigentlich mit der Zeit, die wir durch das Ganze
Die ganze Automatisierung mit KI und das Wegdrücken dieses Drudgery, wie es Jandella mal schön sagte.
Und ich hatte ja das damals mal mit dem Begriff Gedöns übersetzt.
Also diese kleinen Summaries, die Aufgaben zusammenstellen, all diesen ganzen Kleinkram Quatsch, der früher unsere Zeit gefressen hat, der jetzt für uns nach und nach die KI erledigen lassen.
Und vielleicht auch die Agenten, die uns bestimmte Dinge automatisieren.
Der sollte uns ja zeich schaufeln, damit wir diese Zeit dann nutzen können.
um kreativere Sachen zu machen oder um wichtige Sachen zu machen, die vorher und die intensiver zu machen können.
Und insbesondere mit Hilfe von KI.
Die Ergebnisse dann nochmal auf ein völlig anderes Level heben zu können.
Das war ja so Sinn und Zweck der Fall.
Und deshalb werden wir uns in der nächsten Zeit hier in diesem Podcast.
damit beschäftigen, wie man diese Arbeit jetzt sozusagen auf Stufe 2-0 oder eigentlich schon auf Stufe 3.
0 mit der KI arbeitet und das machen kann.
Und dazu
Und wie gesagt, letztes Jahr habe ich das schon gehört, Notebook LM, dieses Thema dieser Notebooks, das wird mein Schwerpunkt sein, den wir jetzt in den nächsten Episoden mal ein bisschen mehr aufarbeiten.
Es geht nämlich darum, und zwar gar nicht mal um Notebook LM an sich, sondern um das Konzept, was dahinter steht, nämlich dieser Wissensraum.
Der Wissensraum.
Ich schaffe mir einen Raum, wo ich meine Quellen.
Sammle, analysiere, raus Erkenntnisse gewinne und dann die Ergebnisse dokumentieren und teilen kann.
Und das ist das Konzept, was hinter diesem Notebooks steht.
Und das hat den großen Vorteil, dass ich zum einen meine Quellen kenne, mit denen ich arbeite, und die KI kennt auch die Quellen, weil sie halt in dem Quellenverzeichnis drin liegen.
Und insofern ist die Gefahr von Halluzinationen schon mal um einiges eingebannt, weil die KI weiß, wo sie nachgucken wird und guckt auch nirgendwo anders nach.
Und ich weiß auch, welche Quellen ich da drin habe.
Und die Ergebnisse, die mir dann die KI ausführen, sind halt immer mit Zitaten versehen.
Und ich kann praktisch bei jedem einzelnen Schritt auf das entsprechende Icon klicken und sagen, wo hast du das denn hergepackt?
Und dann macht er mir den Abschnitt auf in dem Dokument, aus dem er das gefunden hat.
Und ich kann das sofort verifizieren und sehen, stimmt das?
Inhaltlich, und dann kann ich mir auch die Form anschauen.
Ist das mit meinem, hätte ich das so gerne?
Also dieses Arbeiten ist
Richtig gut.
Also für mich, ich habe damit jetzt wirklich die letzten zwei Monate sehr intensiv gearbeitet für alle möglichen Dinge.
Selbstreflexion, ein ganz tolles Thema.
Dann Vorbereitung von Präsentationen, Zusammenfassung von bestimmten Themen, Erkenntnisgewinne über die ganzen neuen kleinen Sprachmodelle.
und habe festgestellt, dass wenn man das dann wirklich tiefergehend diesen Toolset von Notebook LM nutzt und diesen Wissensraum nutzt,
bekommt man dort richtig gute, richtig tiefe Erkenntnisse, die einfach in dieser Art und Weise in der Schnelligkeit und noch in der
Aufbereitung, also bisher gar nicht möglich waren.
Genau, und dies möchte ich gerne mit euch teilen.
So, und
Vielleicht als ersten Einstieg.
Wie gesagt, das Co-Pilot-Notebook gibt es da mittlerweile auch.
Also Microsoft hat ja dieses Notebook-LM-Konzept übernommen und in das Notebook überführt.
Also auch da kann ich mittlerweile ein Notebook, einen Wissensraum einrichten und kann das A, kann ich dort Dokumente hochladen, aber was viel schärfer ist.
Ist, ich kann existierende Dokumente aus unterschiedlichen Dokumentbibliotheken dort gezielt in dieses Notebook einlinken.
Das heißt, dann liegt das Dokument nicht in den Notebook, sondern ist verlinkt mit der Originalquelle.
Ändert es sich da?
Ändert sich auch sozusagen die Quelle in meinem Notebook.
Und habe natürlich auch noch die ganze Möglichkeit, mit dem Work-IQ, der im Hintergrund arbeitet, auf meine Unternehmensdaten im Kontext zurückzugreifen.
Und auch das Co-Pilot-Notebook kann auch noch auf meine
Mein gesamtes Umfeld, meine ganzen Vernetzung im Rahmen meines Unternehmens drauf zurückgreifend, was natürlich die.
die Qualität der Informationen, die da rauskommt, um einiges steigern kann, weil es halt meine Unternehmensdaten sind.
Und der große Vorteil daran ist, ich muss es nicht irgendwo hingeben, wie nach Notbok.
m, wo ich nicht weiß, was mit meinen Daten passiert.
Ist ja ein bisschen überspitzt formuliert, sondern ich habe halt mein.
Geschützten, nicht nur den Wissensraum, sondern ich habe auch diesen geschützten Wissensraum im Rahmen von Microsoft 365 Co-Peile, dass diese Unternehmensdaten halt dort in diesem Tennant bleiben und nicht rausgehen.
.
So, das ist das, was im Prinzip super ist, dass es das in den Notebook gibt.
Man muss auch sagen, dass das Notebook jetzt im
Copalette Notebook im Herbst sozusagen ein Update erfahren hat.
Die erste Version war ja irgendwie so eine Pre-Alpha-Version.
Jetzt gibt es halt auch so die Dreiteilung da drin, man kann das auch schon einbinden.
Ich habe ein bisschen damit rumgespielt.
Man kann Podcasts erstellen.
Ja, das ist alles noch, ich sag mal, im Entwicklungsstadium.
Ich wollte dann auch mal diese.
vorgefertigten Dinge wie Trainingsmode, da gibt es auch verschiedene Dokumente, die man erstellen kann, wo dann das Co-Pilot-Notebook Pages erstellt.
Er hat mir auch diese Pages erstellt, allerdings waren die alle leer und es gab lauter Fehlermeldungen.
Gut, also daran muss noch gearbeitet werden, aber man kann sich schon mal darauf vorbereiten.
Und das kann ich eigentlich nur jedem
empfehlt, der sich mit diesem Konzept von so einem Wissensraum auseinandersetzt, dass er das mal mit Notebook-LM macht und dann mit Themen, die eben nicht unternehmenskritisch sind, sondern weiß ich was wie
Fitnesstraining oder Bau von irgendetwas oder weiß ich was, ich habe fünf YouTube-Videos über ein Thema gesehen, packt die alle da rein und hilft mir das.
mal zu analysieren, was das für mich bedeuten könnte.
Also auf diesen Dingen, wo jetzt keine datensicherheitskritischen Dinge sind.
Und dann mal zu sehen, was man mit diesem Notebook alles machen kann.
Und da werdet ihr, wenn ihr da einsteigt, so wie ich so schrittweise immer weiter einsteigt, wird ihr extrem begeistert sein.
So, was man sich aber bei diesem Businessraum arbeiten auch, das ist eigentlich auch jetzt erst bei mir.
Sozusagen in den Vordergrund gehören.
Man muss sich tatsächlich damit beschäftigen und ausprobieren.
Und ich habe auch sehr viel dazu mir angeschaut.
was in die Community veröffentlicht worden ist, was bei Google stand, Best Practice und Ideen, die die Community hatte.
Und das dann alles mal selbst ausprobiert.
Und dann merkt man erst,
Die Qualität der Ergebnisse hängt ganz stark davon ab, dass ihr in der Lage seid, eure Anforderungen richtig zu formulieren und richtig zu definieren.
Und auch wisst, was das im Prinzip so ein Modell kann.
Ja, zum Beispiel bei Selbstreflexion, zu sagen, kannst du mir mal eine kritische, zum Beispiel, ich habe mal eine Podcast-Episoden, gibt es ein Notebook, da sind alle
38 bisherigen Podcast-Episoden als Transkript drin.
Und da kann ich ganz gezielt fragen, sag mal, habe ich dieses Thema mal irgendwann besprochen?
Oder aber, was ich auch gemacht habe, ist, es kam jetzt ein Paper raus
wo, ich weiß nicht, wer das gemacht hat.
Die haben mal einen Test gemacht bei diesen automatischen, bei diesen Agenten, Multi-Agenten-Systemen.
Gibt es einen Unterschied zwischen den Qualitäten, die ein Manager, der ein Team aus Menschen führt, oder ein Manager, der ein Team aus Agenten führt?
Also jeweils ein Mensch, der das führt.
Und er soll einmal ein Team führen, was aus Menschen besteht, und zum anderen ein Team führen, was nur aus entsprechenden Agenten führt, die die gleichen Fähigkeiten haben oder ähnliche Fähigkeiten haben.
So, und als Ergebnis dieser Studie kam im Prinzip raus.
Letztlich dafür entscheidend ist nicht, ob man Prom formulieren kann oder sowas, sondern die Qualitäten, die der Manager haben muss, sind eigentlich bei beiden gleich.
Er muss nämlich führen können.
Er muss sozusagen eine Managementsaufgabe ausführen können.
Und das hat mich dann sehr stark an dieses Thema dieses Podcasts erinnert, der ja immer wieder heißt.
Prompt ist nicht Humbug, also will ich nicht sagen, sondern Prompt ist nicht das Kern.
Die Kernkompetenz ist Delegationsfähigkeit, die Managementfähigkeit.
Ich muss in der Lage sein, das, was ich will, zu formulieren
Und zwar so zu formulieren, dass es Aufgaben sind, dass man das an jemanden anders übertragen kann, dass der auch weiß, was er machen will, und in einen interaktiven Dialog eintreten kann.
Und das kam genau daraus.
Und was ich dann gemacht habe, ich habe auch diese Studie in mein Notebook hochgeladen.
Und habe dann das Notebook gefragt, sag mal, hier ist die Studie und da komm, wenn ich in dieser Studie ungefähr lese.
Heißt es ja, irgendwo sind die entscheidende Kompetenz, die ich brauche, um sowohl ein menschliches als auch ein KI-Agentente-Team zu führen, dass das einfach Führungsqualitäten sind.
Wie deckt sich das denn mit den Aussagen in meinem Yoko-Palet-Podcast, wo ich ja immer mein Mantra verbreite?
Delegation ist die Kernkompetenz und nicht Prompting.
Und dann kommt da einen wunderbaren Bericht raus, der ging runter wie Öl, wo er gesagt hat, ja, im Prinzip bist du da genau mit der Studie auf dem gleichen Level
Ist halt ein bisschen anders formuliert, aber im Prinzip hast du da schon den richtigen Ansatz dazu.
Das, abgesehen davon, das ist das natürlich so, hast du schon immer gesagt, dass das einem natürlich ein bisschen positiv ist, ist es aber natürlich.
Eine richtig coole Auswertung.
Ich habe also etwas, was eigentlich ein ähnliches Thema hat, aber von völlig anderer Quelle kommt, kombiniere ich jetzt mit meinen Daten, die ich habe.
Und kann daraus eine entsprechende Ausgabe.
Und da waren natürlich auch noch so ein paar Unterschiede mit drin, die erwähnt worden sind.
Und ja, aber man gewinnt nochmal, man kriegt ein kritisches Feedback darauf.
Und das ist etwas, was mit diesem
Mit diesen Notebooks eben super funktioniert.
So, das ist also, und wie gesagt, das schließt sich aber auch erst dann, wenn man wirklich mit.
probiert und auswertet und dann kriegt man auch ein Gefühl dafür, wie das Ganze funktioniert.
Man speichert sich dann schon fertige Prompts, wenn man keinen Prompt hat.
oder nicht so richtig weiß, habe ich auch gemacht.
Ich habe alle Dokumente hochgeladen, habe gesagt, sag mal, hier ist mein Podcast.
Mit allen Ausgaben, die mache ich jetzt seit anderthalb Jahren.
Gebt mir doch mal fünf Prompts, Ideen, wie ich diesen Podcast jetzt mal analysieren kann.
damit ich in Zukunft den noch besser machen kann und fokussierter machen kann oder ähnliches.
So, und dann kriegt man halt fünf Vorschläge dazu für Prompts.
Und sagt man Nummer 1, 2, 3, oh ja, okay, alles klar.
Aber Nummer 6, guck mal, das ist nicht eine gute Idee.
Lasst mich mal diesen Prompt abschicken.
Und ihr bekommt richtig Ideen, wie ich diesen.
Wissensraum befragen kann.
Und das hilft nochmal, das ist dann so der Einstieg daraus und dann sagt man, okay, ja, ist das.
Dann geht man halt in die Chatfunktion rein und sagt, pass mal auf, das ist schon ganz gut, aber wenn ich jetzt dies und die jetzt habe, wie kann ich in der Richtung weitergehen?
Und das geht mit diesem Wissensraum richtig, richtig gut.
Und das kann ich euch nur empfehlen, das auszuwerten.
Wie gesagt, es ist etwas, wo man.
richtig lernen muss.
Aber dann hat man ein Tool am Ende, mit dem man richtig, das einen richtig bei dieser Arbeit unterstützt.
Und
Um vielleicht nochmal so ein bisschen Vertiefung reinzukommen.
Das Ganze hängt aber auch von der Qualität eurer Quellen ab.
Und wir haben das ja auch in diesem Podcast hier immer schon wieder mal
Thematisiert den Faktenschat.
Wie gut sind meine Quellen?
Wie gut ist der Input?
Stimmt denn das, was da drin ist?
Kann ich mich darauf verlassen?
Und in so einem Wissensraum, da wählt ihr halt die Quellen aus, die da reinkommen.
Ich sage, ich hätte dieses Dokument, dieses Dokument, dieses Video, diese Grafik, diese Notizen, diese Sprachnotiz.
Das soll alles in diesem Notebook drin sein, weil das sind Quellen, die für mich relevant sind, die habe ich ausgewählt.
Und dann.
.
Wenn die Quellen erstmal drin sind, bevor ich da anfange, kann ich natürlich den ersten Schritt machen und sagen: Okay, jetzt sind die Quellen da.
Ich bin der Meinung, die sind okay, aber lass doch einfach mal das Notebook, diese Quellen, die Qualität der Quellen analysieren.
Ja, dann kann man ihm eine entsprechende Frage stellen.
Hier sind die Quellen dafür.
Ich möchte dazu zu diesem Thema, mit diesen Quellen arbeiten.
Check doch bitte mal, ob für dieses Thema die Quellen
hinreichend gute Auskämpfe geben.
Was fehlt denn da noch?
Was könnte noch besser sein?
Wo widersprechen sich die Quellen?
Was sagt Quelle A und was sagt Quelle B?
Wie unterscheiden die sich?
Wo sind die gleich?
Und kann dann anfangen, wie gesagt, diese Quellen erstmal zu erkunden.
Und zu pflegen und zu analysieren oder wie man so schön sagt, zu korretieren.
Dann schmeiße ich Quellen raus, die nicht richtig, die einfach vielleicht nicht so gut sind und suche dann nochmal andere und füge die hinzu.
Also, dies, das ist auch ein erster Schritt, klar, ich kann
Mit zwei Klicks kann ich 30 Dokumente da hochladen und fange damit zu arbeiten, anzuarbeiten, aber eure Ergebnisse werden wesentlich besser.
wenn die Quellen, die ihr so drin habt, einfach auch nochmal richtig kuratiert und gut aufbereitet sind und richtig gut ausgewählt sind.
Und da kann euch die KI in dem Falle natürlich auch unterstützen, weil ihr einfach entsprechende Anfragen stellt.
Ein Thema, was auch bei solchen Notebooks bei mir aufhören.
Da hast du dann 39 Transkripte drin und die fangen alle an mit YCP-039 Podcast.
So eine Auflistung.
Und kein Thema, kein Gar nicht, keine Ordnung, keine Struktur oder ähnliches drin.
Und dann weißt du, weil man kann natürlich auch, wenn man in die Abfrage an die Quellen geht, nicht immer auf allem, auf alle Quellen gehen, sondern man sagt sie, okay,
Ich weiß, dieses Thema habe ich im Podcast 7, 13 und 25 diskutiert.
Ich wähle jetzt mal nur diese drei Podcast-Transkripte aus und stelle jetzt die Frage dahin.
Die KI ist fokussiert nur auf diese drei Dokumente, nicht mehr auf die 43 oder die 30, die 38 Dokumente, die da drin sind, kann also wesentlich fokussierter arbeiten.
Die Ergebnisse werden wesentlich besser.
Dazu muss ich aber natürlich dann in der Lage sein, diese Quellen auch auszuwerten.
Und das geht bei, da fehlt noch irgendwie so ein Ordnungskriterium da drin, was man natürlich machen kann.
Man kann den
dem Notebook sagen, pass mal auf, hier sind meine ganzen Quellen.
Erstell mir bitte jetzt mal eine vernünftige Liste über jedes einzelne Quellendokument.
Worum geht's da?
Ist das ein originales Dokument?
Also weiß ich was, ein wissenschaftliches Paper, oder ist es eine
Zweite Quelle dazu, eine Sekundärquelle, wie man das so schön nennt.
Also ist das jemand, der über dieses Paper berichtet hat und seine eigene Meinung da reingebracht hat?
Oder ist es eine Meinung?
Und gib mir mal bitte an eine Übersicht.
Und dann hat man eine gute Übersicht darüber.
Okay, was war da drin?
Was war dran?
Was war in die, oder bei meinem Podcast immer
Schreib mal rein, welche drei Themen in dieser jeweiligen Podcast-Episode ganz weit oben standen.
Und dann hast du einfach schon mal eine viel bessere Übersicht über das, was da drin ist, kannst du das auswählen und man kann sich sozusagen die
Fehlenden Organisationsmöglichkeiten halt mit einer Ordnerstruktur oder ähnliches kann man sich halt durch die KI wieder bauen lassen.
Sehr, sehr, und das sind so diese kleinen feinen Tricks und Kniffe, die man eigentlich erst dann erfährt, wenn man sich intensiv damit beschäftigt und überlegt, was geht denn noch dazu.
Ja, und dann hat man natürlich, das ist sozusagen bei der Quellen.
Und wenn diese Quellen richtig gut sind, dann kann ich eben agieren, und dann habe ich hier im Notebook M.
Dieses unglaubliche Vielfalt an Ausgabeformaten.
Die erste Killer-Applikation für mich ist tatsächlich die Mindmap.
Also meine Lieblingsanwendung fürs Notprogramm ist die Mindmap auf ein langes YouTube-Video.
Ihr seht zum Beispiel, was ich Andre Carpati hat zwei Stunden lang über ein Video aufgezeichnet, wie man LLMs baut.
Oder eine lange Diskussionsreihe über, oder eine lange Keynote von jemand über drei Stunden und über ein bestimmtes Thema und dann erstmal sagen, okay.
Gib mir erstmal eine Mindmap, über welche Themen da gesprochen wird, strukturiert, damit ich einen Überblick bekomme.
Und das macht dieses Notebook absolut super
mit Blick darauf, dass ich sage, ich bekomme einen Überblick darüber.
Und bei mir ist es so, ich lade das Video hoch und sage, hier mach mal eine Mindmap, dann mache ich das Video auf, gucke in die Mindmap rein und sehe so die Strukturen da drin.
Und entweder frage ich da ein Notebook schon, was ist denn da zu dem Thema, führe das mal weiter aus, oder aber ich schaue mir dann Teile des Videos an.
Und gucke anhand der Struktur, oh guck mal, da ist das Thema, wo ist denn das drin?
Und dann schaue ich mir das da mal im Video an und steige dann direkt in meine Quelle ein, um dann weiterzuarbeiten.
Das ist
Also wirklich, das hilft unglaublich schnell einen Überblick zu bekommen über.
Da muss ich mir nicht diese zwei Stunden ein Video angucken, erstmal.
sondern ich kriege erstmal einen Überblick darauf und kann dann sagen, okay, das ist wirklich interessant.
Also steigt doch mal an der Stelle etwas genauer ein.
Unheimlich ein
Ganz wichtiges Thema.
Aber auch diese ganzen anderen Sachen mit der ausführlichen, mit den Prompts für Podcast, für Video, für Infografik, da hat
Google mir halt mit den neuen Modellen, auch mit dem Nano-Banana, was da im Hintergrund mittlerweile wirklich das Ganze nochmal auf ein ganz anderes Level gehoben.
Und das Schöne daran ist, dass ihr fast jedes dieser Ausgabeformate individuell mit einem Prompt belegen könnt, mit einer Anweisung bekommt, was gemacht werden soll.
Also bei mir im November, als ich in München war,
ging es auch darum, ich glaube, ich war das ein Thema Sprache, war das zum Sprachmodell und so weiter.
Jedenfalls, da kam das gerade raus und ich war in München dafür
Für das AI-Studio Day, was wir da gemacht haben, für die Community, für den Livestream und hatte dann nebenher ein bisschen Zeit und habe gesagt, okay, jetzt lassen wir mal ein Video erstellen, sieben Minuten lang.
über dieses Thema, aber ich bin gerade hier in Bayern und mache das ein bisschen mal in Mundart und dann pack mal auch in die Präsentationsform und in die
in die Gestaltung bayerisches Lokalkolorit rein.
Dann habe ich ein Video bekommen, was im Hintergrund Bergmotive hatte, so eine Bergsteigergeschichte erzählt hat.
Schritt für Schritt und mir dann praktisch dazu auch den Inhalt meiner Quelle ergeläutert hat und das Ganze hätte er dann auch nur in Bayerisch gemacht.
Da war ich positiv angetan, muss ich sagen.
Das hat mir gezeigt, was für eine, was dieses Tool eigentlich kann, wenn ich es richtig anspreche.
Und das heißt, ich muss einen entsprechenden Prompt richtig formulieren.
Das ist super und ganz aktuell habe ich jetzt einen Beitrag gesehen
vom warte mal ich muss mal ganz kurz gucken und zwar von Cory McClain auf YouTube habe ich das gesehen
Der hat sich, der ist mit Chat-GPT drin und der hat auch ein Notebook LM als Einsatz.
Und der kam auf die Idee, Moment mal, in ChatGPT kann ich doch sagen.
Liebes ChatGPT, gib mir mal alle Daten, die du über mich gespeichert hast.
Insbesondere sämtliche Konversation, wenn ich das Memory eingeschaltet habe und diese Aufzeichnung gemacht habe.
Schick mir doch bitte mal alles rüber.
Das kann man machen.
Dann kriegt man eine E-Mail und sagt, ja, wir sind dabei, das aufzuarbeiten.
Und irgendwann kriegt man eine E-Mail und sagt: 24 Stunden hast du jetzt Zeit, hier das alles runterzuladen.
Dann sich das runter und kriegt eine ZIP-Datei mit allem, was man in ChatGPT jemals gemacht hat.
Und alles, was gespeichert ist.
Unter anderem gibt es da eine Datei drin, die heißt conversations.
json.
Das ist eine JSON-Datei.
Die war bei mir ungefähr 180 Megabyte groß.
Und da sind sämtliche Konversationen drin, die ChatGPT mit mir geführt hat.
Das, was ich auch schon mal vor ein paar Episoden mal gezeigt habe, ich habe Chat-GPT mal gefragt: Sag mal, du kennst mich doch als Buddy.
Sag mal, ich rede ja mit dir über alle möglichen Themen.
Kannst du mir mal so ein bisschen Feedback geben?
Wie rede ich mit dir?
Was sind meine Stärken, was sind meine Schwächen und so weiter?
Das kam ja auch recht gut raus.
Allerdings habe ich hier jetzt sämtliche Konversationen im Rohmaterial drin, und dann hat er in seinem Video beschreibt er dann
Das kann man jetzt nicht einfach hochladen, dieses JSON-Skript, weil ein Notebook absetziert, nur 20 Megabyte Größe oder 500.
000 Worte.
Der hat auch ein riesengroßes Kontextfenster.
Und hat dann halt ein Skript gebaut und zeigt das auch in seinem Video, wie man dann diese Konversationsdatei nimmt und mithilfe eines Python-Skripts in lauter kleine.
.
Markup-Dateien mit maximal 450.
000 Worten aufteilen lässt und dann kriegt man halt aus seinem großen JSON-Datei 14 Dateien raus.
die das gesamte Konversation haben.
Wenn man die jetzt ins Notbuch hochlegt und sagt, so, mein Lieber, jetzt fang mal an und erzähl mir mal, was weißt du über mich, was kannst du über mich wissen,
Ich bin gestern in diese, ähm nachdem ich das Skript installiert habe und das hat ein bisschen die anderen eine kleine Schwierigkeit auf Schrift habe, habe ich das aber mittlerweile alles bei mir in einem Notebook drin.
Und, ähm,
Ich sage mal so, es ist schon erschreckend, was da zu sagen alles über mich gespeichert hat.
Es ist nicht erschreckend, was da drin steckt, ist natürlich meine ganze Historie.
Und eine Frage, die ich gestellt habe, ist nicht etwa, sag mir doch mal alles, was da drin ist, sondern was ich gesagt habe, sag mir doch bitte mal, wenn du meine ganzen Diskussionen durchliest, was diskutiere ich eigentlich nicht mit dir?
weil ich das sozusagen schon als mein Wissen voraussetze.
Also was weiß ich schon, was ich mit dir diskutiere und worauf setze ich darauf auch
Und das war auch schon mal eine ziemlich interessante Erkenntnis, die ich daraus wollte.
Ich muss da noch ein bisschen tiefer eintauchen, aber.
Das war auch nochmal eine Sache, wo man diesen Werkzeugkasten einfach nur nutzt, sich die Quellendaten entsprechend aufbereitet und dann mit geschickten oder speziell angepassten Fragen darauf geht und das umsetzt.
Ich verlinke euch mal dieses Video von Corey McLean.
Und ja, wenn ihr schon ein bisschen fortgeschrittener seid, auch so ein bisschen mit mit.
Code umgehen könnt, dann wäre das mal etwas, was ihr auch mal ausprobieren könnt.
Und das hat ja dann irgendwie auch mit Claude-Statistiken gemacht.
Ich weiß nicht, ob man sich bei Co-Palett eigentlich auch so eine.
Statistik oder so, die die Daten runterladen kann.
.
.
Das müsste man eigentlich mal klären.
Super, super, super spannend, kann ich da nur sagen.
Und ich muss mal gucken, wo ich meine Zusammenfassung hier noch habe.
Genau.
Ja, das ist also das, was ich jetzt mit
dem Notebook der EM bisher gemacht habe.
Also eintauchen in das Thema Wissensräume, mich damit beschäftigen, was ist so ein Wissensraum, was bedeutet das für die Quellen, was bedeutet das für meine Analysen.
Was bedeutet das für die Ausgabeformate?
Was kann ich dort einstellen?
Was kann ich dort konfigurieren?
Mit welchen Prompts kann ich da rangehen?
Welche Erkenntnisse kann ich daraus gewinnen?
Wo sind dann die Grenzen?
Wie Schwierigkeiten?
Und wie kann mich die KI dabei unterstützen, auch dieses Tool noch besser zu erkennen?
Das ist das eigentlich, was ich jetzt so allen empfehlen kann, die sich sozusagen mit dem nächsten Schritt der KI.
Wenn wir die freie Zeit irgendwie sinnvoll nutzen wollen, die uns die Agenten und das kleine Drudgery dann sozusagen weggeschaufelt hat.
Wenn man diese Zeit sinnvoll nutzen will, ist das Notebook-Konzept ein richtig guter Ansatz dafür.
Und wie gesagt, ich werde das in weiteren Formaten und auch hier im Podcast mit aufdröseln.
Ja, und kann euch nur ermutigen, das auch zu machen, weil für die persönliche Produktivität das ein richtiger Booster ist.
Und jemand hat mir neulich mal gesagt, habe ich gelesen, was ist eigentlich, wenn ihr mit einem Chat gearbeitet habt und was ist, wenn ihr mit so einem Wissensraum arbeitet?
Beim Chat ist in der Regel am nächsten Tag, wenn ich gesagt habe, aber ich mache so lange Abfragen mit Themen und so weiter und mache für einen langen Chat und da kommt ein Ergebnis raus.
Ah ja, okay, das ist drin, aber am nächsten Tag, wenn ich das nicht irgendwo separat abgespeichert habe, ist vielleicht ein Großteil dessen einfach schon wieder vergessen.
In so einem Wissensraum, wenn ich da einen Bericht erstellt habe oder einen Podcast erstellt habe oder ähnliches, dann ist es am nächsten Tag noch da und ich kann da noch wieder reingucken.
Das heißt, mein Ergebnis ist nicht flüchtig, sondern es wird tatsächlich in Wissen, in diesem Wissensraum oder Erkenntnis umgewandelt und ich kann darauf zugreifen.
Superspannt, guckt euch das an, meine persönliche Empfehlung.
Und wir werden das ja auch noch weiter thematisieren.
In diesem Podcast.
In dem Sinne, erstmal vielen Dank wieder fürs Zuschauen.
Ich freue mich natürlich immer über Feedback zu diesem Podcast oder auch eine Bewertung auf den diversen Plattformen.
Und natürlich auch, wenn ihr einfach mal diesen Podcast an andere weitergebt, damit sie auch diesen Podcast hier abonnieren können.
In dem Sinne, vielen Dank fürs Zuhören und dann tschüss bis zum nächsten Mal.
Your Co-Pilot.
Der Podcast, der hilft, die künstliche Intelligenz in der Microsoft 365 Welt zu verstehen und produktiv anzuwenden.
Mit eurem Kopiloten, Michael Grät.