In 60 Minuten zum ChatGPT-Profi - Der Crashkurs für alles, was ihr wirklich können müsst

Shownotes

In dieser Folge MIT HERZ UND KI zeigen wir, wie ihr ChatGPT so nutzt, dass es euch im Alltag wirklich hilft. Host Fanny Rosenberg und Nadine Wischmeier, CTO & Co-Founder von Leeon, bringen euch in 60 Minuten auf den neuesten Stand: vom einfachen Prompting zu konkreten Routinen, die Zeit sparen und Ergebnisse liefern.

Ihr lernt unter anderem, wie ChatGPT arbeitet und warum iteratives Prompten der Schlüssel zu besseren Antworten ist. Wir erklären, wie ihr mit Voice schneller arbeitet, wie Canvas euch beim Schreiben und Bearbeiten direkt im Dokument unterstützt und wie ihr im Study Mode gezielt Wissen aufbaut. Außerdem geht es um den Agent Mode, der es euch ermöglicht, Aufgaben zu delegieren, und wie ihr Company Knowledge sicher in ChatGPT integriert. Zum Schluss werfen wir einen Blick auf den neuen Atlas-Browser, der euch beim Recherchieren direkt auf Webseiten unterstützt.

Gast: Nadine Wischmeier, CTO & Co-Founder von Leeon Moderation: Fanny Rosenberg (DUP-Unternehmer)

Alle Tipps auf einen Blick:

  1. Was ist ein LLM und wie entsteht es? Erfahrt, wie Large Language Models (LLMs) wie ChatGPT funktionieren, was sie so mächtig macht und wie sie durch riesige Datenmengen und den Transformer-Algorithmus trainiert werden. Ihr versteht, warum sie manchmal sehr gut sind und manchmal eben auch nicht.

  2. Mit ChatGPT reden (statt tippen) – Voice Funktionen Nutzt die Voice-Funktion für schnelle Notizen, Ideenfindung und Korrekturen. Warum gesprochene Prompts oft schneller und effektiver sind als getippte, erfahrt ihr hier.

  3. Iteratives Prompten Warum ein einmaliger Prompt nicht ausreicht und wie ihr mit kleinen, gezielten Anpassungen die besten Ergebnisse erzielt. Wir sprechen über die richtige Strategie und wie ihr Schritt für Schritt zum perfekten Ergebnis kommt.

  4. Bilder erstellen Wann und wie ihr ChatGPT für die Bildgenerierung nutzt. Von der ersten Idee bis zur Finalisierung – wie ihr Bilder nach euren Vorstellungen erstellt und was dabei zu beachten ist.

  5. ChatGPT Study Mode Lernt, wie der Study Mode funktioniert und wie ihr ihn nutzen könnt, um Wissen zu verinnerlichen und Schritt für Schritt neue Themen zu verstehen. Ein echter Gamechanger für alle, die sich auf neue Themen konzentrieren wollen.

  6. Projects aufsetzen und nutzen Warum Projects der beste Weg sind, um Aufgaben zu strukturieren, Quellen zu sammeln und Workflows zu organisieren. In dieser Folge erklären wir, wie ihr Projekte effizient für langfristige Aufgaben nutzt.

  7. Agent Mode nutzen Wenn Aufgaben delegiert werden müssen, ist der Agent Mode die Antwort. Wir erklären, wann ihr ihn wirklich sinnvoll einsetzen könnt und wann klassisches Prompten besser ist. Der Agent übernimmt Aufgaben, die mehrere Schritte erfordern.

  8. Company Knowledge nutzen Wie ihr euer Unternehmenswissen effektiv in ChatGPT integriert, damit es euch bei jeder Anfrage zur Verfügung steht. Mit den richtigen Sicherheitsregeln bleibt alles geschützt und trotzdem extrem produktiv.

  9. Websearch (auch im Vergleich zu Perplexity) Wenn es an die Websuche geht, müsst ihr wissen, wann die integrierte Funktion von ChatGPT ausreicht und wann ihr auf spezialisierte Tools wie Perplexity zurückgreifen solltet. Erfahrt, wann es sich lohnt, zu wechseln und warum.

  10. Canvas Arbeitet direkt im Dokument: Mit Canvas könnt ihr Texte schnell bearbeiten, kürzen und Varianten testen – ohne zwischen verschiedenen Tools hin- und herwechseln zu müssen. Der Vorteil: Volle Kontrolle über den gesamten Text.

  11. Temporary Chat Wenn es um sensible Themen geht oder wenn ihr einfach nicht wollt, dass ChatGPT etwas merkt, ist der Temporary Chat die Lösung. In diesem Modus werden keine Daten gespeichert – ideal für vertrauliche Anfragen.

  12. Memory Feature Das Memory Feature von ChatGPT hilft dabei, eure Stilregeln und Zielgruppeninformationen zu speichern. So wird das Arbeiten mit ChatGPT schneller und konsistenter. Erfahrt, wie ihr es richtig einstellt und welche Daten ihr speichert (und welche nicht).

  13. Der neue Atlas-Browser (was er kann und was er nicht kann – und wem er eigentlich nutzt) Der Atlas-Browser von OpenAI verändert, wie wir im Web arbeiten. Wir erklären, was der Browser kann, wie er euch bei der Recherche unterstützt und warum er eine echte Kampfansage an die klassischen Browser ist.

Transkript anzeigen

00:00:00: Und ich kann aber eben auch so coole Sachen machen, wie ich kann ja quasi einen Abschnitt zum Beispiel in meiner Geschichte markieren.

00:00:06: Und dann kann ich halt sagen, hier in diesem Absatz füge doch bitte noch einen weiteren Charakter mit rein oder so immer.

00:00:14: Und das kann ich bei diesem normalen Hin- und Herzen nicht.

00:00:30: Hallo und herzlich willkommen zu einer neuen Folge mit Herz und KI.

00:00:35: Und in der werden wir mal richtig viel Handwerk wiederbringen.

00:00:39: Wie arbeiten wir mit ChatGPT?

00:00:41: spürbar, schneller und sauberer?

00:00:44: Es gibt wirklich so viele Kniffe, die wirklich nicht kompliziert sind, die wir aber noch nicht kennen, aber unsere Arbeit sofort verbessern.

00:00:51: Wir machen euch also in dieser Folge schwupp die Wupp zum ChatGPT-Experten bzw.

00:00:57: zur ChatGPT-Expertin.

00:00:59: Bei mir ist Nadine Wischmayer von Aliken.

00:01:03: Nadine baut seit Jahren KI-Training für Teams.

00:01:06: Sie begleitet ganz viele Firmen und weiß, wo es da oft hakt beim Arbeiten mit GenAI und wie man dann diesen Haken auch wieder beseitigen kann.

00:01:17: Nadine, ich freue mich ganz toll, dass du hier bist.

00:01:19: Ja, danke für die Einladung, ich freue mich auch schon.

00:01:21: Lass uns, oder bevor wir anfangen, möchte ich dich gerne fragen, wann war denn überhaupt deine erste Begegnung mit ChatGPT?

00:01:28: Das hat sich also seitdem so wahnsinnig viel getan.

00:01:30: Was war denn damals so dein erster Eindruck, als du ChatGPT zum ersten Mal benutzt hast?

00:01:35: Ja, das war der berühmte GPT-Moment oder Chat-GPT-Moment und meiner, an den erinnere ich mich, war sehr cool.

00:01:41: Das war wirklich Anfang, zwanzig, drei und zwanzig.

00:01:45: Ende, zwanzig, zwanzig Wörter.

00:01:46: Das ist ja released von OpenAI und ich habe das ein bisschen später mitbekommen.

00:01:52: Aber gerade so noch in den ersten Anfängen, dass ich es wirklich als ich es gesehen habe und gemerkt habe, wie es mir helfen kann.

00:01:59: Ich habe damals schon programmiert.

00:02:02: und Software entwickelt und so diese ersten, ich kann da eine Frage reinstellen und das Ding baut mir eine Funktion zusammen oder verbessert mir eine E-Mail und so, das war schon wirklich ... Ganz extrem.

00:02:15: Also es war wirklich in Leitningen, wenn man so will.

00:02:18: Und ich bin dann auch gleich zu meinem Mann gelaufen, hab dem das gezeigt.

00:02:21: Er hat dann erst gesagt, naja, so gut kann das gar nicht sein.

00:02:23: Und dann ist er da rein und hat Fragen gestellt.

00:02:25: Und dann waren wir beide irgendwie so total angefixt und haben gleich richtig lange Unterhaltungen geführt.

00:02:32: Und immer auch so krass, was sich seitdem schon getan hat auch.

00:02:35: Ich finde, das finde ich auch manchmal echt so erstaunlich, dass innerhalb von zwei Jahren sich das so spürbar verändert hat und eben noch mal verbessert hat.

00:02:42: Total.

00:02:44: Gut, dann lass uns jetzt zusammen einsteigen in die saftigen Tipps.

00:02:49: Und ich finde, oder bevor wir in die richtig saftigen Tipps gehen, finde ich es auch mal total wichtig, dass man ein kleines Fundament liegt.

00:02:56: Also, dass man auch noch zwei Dinge zur Maschine selbst klärt.

00:03:02: Denn ich finde, wenn man die Maschine versteht, dann kann man auch einfach besser mit ihr interagieren und ja auch bessere Proms schreiben.

00:03:10: Und ja, man redet ja immer vom LLM, also das Large Language Model, das hört man immer wieder, man stolpert an Daumand darüber.

00:03:19: ChatGPT und auch andere Chatbots sind ja LLMs.

00:03:24: Was sollte man unbedingt dazu wissen?

00:03:27: Also über das Training von LLMs, über deren Mustererkennung und auch vielleicht über deren Grenzen, damit wir eben auch Antworten realistischer bewerten können.

00:03:39: Ja, das ist eine sehr gute Frage.

00:03:41: Also man nehme quasi ein großes Datensinter mit ganz vielen TPUs oder auch von Google die TPUs.

00:03:50: Das sind quasi diese Grafik Chips, die vorher hauptsächlich im Computerspielen benutzt wurden.

00:03:56: Und Nvidia halt der ganze Welt damit beliefert sozusagen und deswegen auch die Nvidia Aktien durch die Decke gehen.

00:04:04: Und wenn man so ein Datensinter hat, dann braucht man noch ein Algorithmus, der eben dafür geeignet ist, Modelle zu trainieren.

00:04:12: Das ist dieser Transformer-Agerhythmus, der von Google, um den Nach-Language-Models, die wir heute benutzen und lieben, herausgegeben wurde.

00:04:27: Und dann lässt man quasi den Text des gesamten Internets, wenn man so will, darüber laufen über diesen Algorithmus in diesen Datenzentren, wo auch ganz viel Strom dafür.

00:04:35: Das ist natürlich auch eine on-going Discussion an der Stelle, wer das alles betreiben soll und mit welchem Strom und so weiter.

00:04:42: Aber wenn man das dann weiter laufen lassen, dann entwickelt man so ein Rohmodell, das eben in der Lage ist, das nächste Wort, wenn man so will, vorherzusagen in einem Satz und dadurch dann eben von Wörtern zu setzen und von Sätzen dann zu ganzen Absätzen zu kommen.

00:04:59: Um dann im Prinzip diesen Chatboard daraus zu machen, braucht man noch das Post Training und da sitzen dann wirklich Menschen dran, die dieses Modell dann mit Fragen überhäufen und immer bewerten, war das jetzt eine gute oder eine schlechte Antwort.

00:05:14: Und somit bildet sich dann eben so ein Chatmodell raus, das wir ja heute kennen und nutzen können.

00:05:20: Und dieses Next-Word oder Next-Token-Prediction-Thema ist im Prinzip auch dafür verantwortlich, dass wir nicht davon ausgehen können, dass das, was uns ausgespuckt wird, hier auch immer die Wahrheit ist, sondern ist es halt einfach eine Zusammensetzung aus diesen nächsten, wahrscheinlichen Wörtern, ein bisschen Statistik, wenn man so will.

00:05:39: Man darf es nicht nur darauf runter reduzieren, aber das ist quasi der Kern der ganzen Geschichte.

00:05:43: Also diese Möglichkeiten, die sich daraus ergeben, sind halt gewaltig.

00:05:47: Aber man muss erst mal nur erst mal wissen, okay, es ist jetzt eben keine Wahrheit per Definition, die daraus kommt, sondern es sind erst mal einfach schöne... zusammengesetzte Sätze und Antworten, mit denen man dann eben ganz viel machen kann.

00:06:03: Und das ist man sieht auch schon eine der größeren Grenzen sozusagen, an denen auch die ganze Zeit gearbeitet wird.

00:06:11: und nicht nur Open AI, sondern auch andere Labs sind die ganze Zeit daran damit beschäftigt, wenn man sie herauszufinden, wie funktioniert denn jetzt das Gehirn so einer SLLMS wirklich?

00:06:21: Und so ganz haben wir es immer noch nicht verstanden, sozusagen.

00:06:26: Neuronahne-Netze sind sehr komplex, sehr viele Neuronen, die miteinander interagieren.

00:06:31: Und deswegen weiß man immer noch nicht ganz genau, wieso Tegibiti jetzt zum Beispiel so antwortet, wie ich es jetzt in dem Moment auf mich reagiere.

00:06:44: Super, dann lass uns jetzt auch einsteigen von der Theorie noch mehr in die Praxis hin.

00:06:50: Einer der wirklich großen Hebel, der wenig Aufwand kostet, ist ja unsere Stimme.

00:06:55: Also wir reden immer schneller, als wir tippen können, selbst wenn wir das mal gelernt haben, mit diesen zehn Fingern zu tippen.

00:07:03: Und wir kennen ja auch alle diese Voice-Funktionen, das kennen wir ja auch, dass wir dann mal auf dem Weg irgendwohin mit ChatGBT eben reden.

00:07:11: Aber, also das macht man ja dann eher, wenn man nicht so ganz strukturiert wahrscheinlich arbeiten möchte und einfach nur so eine kleine Idee sammeln wollte oder so, ne?

00:07:19: Weil der Knackpunkt ist ja eben, dass man im gesprochenen selten so richtig strukturiert und bündig ist.

00:07:27: Und da würde ich mich freuen, wenn du uns nochmal erklärst, wie spreche ich denn?

00:07:34: dass aus Freitext eben klare Ergebnisse werden.

00:07:37: Also hast du da so ein Mini-Gerüst für gesprochene Proms, wie man da besonders gut arbeitet, um die einzigstige Regeln?

00:07:45: Ja, also im Grunde... ist G.B.T.

00:07:48: ja schon sensationell gut in der Lage meine Intention aus, was auch immer ich da rein brabbel sozusagen heraus zu picken und dann in die richtige Richtung schon mal loszuschießen.

00:07:59: Und mein Lieblingsrezept fürs Promten ist wirklich so dieses iterative Promten.

00:08:06: dass ich halt einfach mal anfange, einfach nur sage, was ich mir, was ich im Kopf habe, was ich gerne beantwortet haben möchte und das Ding dann los schicke und dann basierend auf der Antwort eigentlich die nächste Follow-up-Frage stelle und so mich eben Schritt für Schritt mit LGBT dann an die Antwort ranntaste oder das Format, das ich eben haben möchte.

00:08:25: Also ich weiß, dass viele Leute sehr viel Zeit investieren und es gibt ganz komplizierte Promething-Techniken, die kann man bei uns auch lernen.

00:08:35: Es gibt auch richtig Kose bei Leon für dieses Promething.

00:08:40: Das ist in dem Fall so relevant, weil ich das dann zum Beispiel, wenn ich eine Software, eine App programmiere, dann brauche ich ja einen Promt, der fix in meiner Software drin ist, der dann in dem Moment rausgeht zu einer API, kann auf GPT-Fünf oder was auch immer als API angesprochen werden.

00:08:55: Da muss dieser Promt sitzen, da ist es wichtig.

00:08:58: Wenn ich jetzt einfach nur tagsüber mit der GPT über irgendein Problemthema, E-Mail, was auch immer, iteriere, dann kann ich einfach... ... reinsprechen, was ich halt im Kopf habe, ... ... JGBT ist schon super damit herauszufinden, ... ... was ich eigentlich von ihm will oder ihr oder was auch immer, ... ... und fängt dann eben an, mir Antworten zu geben.

00:09:15: Was aber vielleicht auch noch so ein Pro-Tipp ist, ... ... und was ich in letzter Zeit wirklich häufig gemacht habe, ... ... ist wirklich, ... ... JGBT so als Coach zu benutzen, ... ... in meinem Unternehmen.

00:09:26: Ich habe relativ viele Informationen ... ... JGBT schon mitgegeben über den System Prompt, ... ... über die Einstellungen.

00:09:34: Und dann kennt JetGPT so mein Umfeld, die Sachen, die mich bewegen.

00:09:39: Es merkt sich ja auch, ich kann ja JetGPT auch sagen, merke dir von mir, dass jetzt gerade das und das Projekt aktuell ist oder so.

00:09:46: dann sehe ich ja auch, dass er sich das merkt.

00:09:48: Das packt er dann in die Memory.

00:09:49: Die kann ich auch nächstes Mal wieder rausfischen und sagen, jetzt kannst du die Memory wieder löschen.

00:09:53: Ja, brauche ich jetzt nicht mehr.

00:09:55: Und dann kann ich zum Beispiel auch, wenn ich unterwegs bin, ob jetzt im Auto oder irgendwie beim Spazieren mit einem Hund oder so, über meine Handy-App, wirklich über meinen Problem, mein Thema, meine Ideen, die ich habe drüber enterieren, mit dem wirklich einfach sprechen wie mit einem Coach.

00:10:12: Und das coole ist, wenn ich dann zurückkomme, dann habe ich immer sieht schon das fertige Ergebnis, was ich mir unterwegs erarbeitet habe.

00:10:18: Hier auf dem Rechner kann dann vielleicht das Endergebnis schon mal copy-pasten und habe dann die perfekte Work-E-Mail oder was auch immer ich mir dann unterwegs mit ChatGBT erarbeitet habe.

00:10:29: Und das finde ich wirklich stark, dass ich wirklich unabhängig jetzt hier vom Rechner dann eben quasi meine Gedanken, die mir natürlich, wenn ich unterwegs bin oder so, kommen, einfach direkt mit einer KI besprechen kann.

00:10:42: Ja, ich finde das, was du genannt hast mit dem iterativen Prompten auch super spannend, weil ich glaube, das kennen wir alle.

00:10:49: Gerade vom Anfang auch, dass das so, also zum Einstieg bei GEPT hat man einfach einen Satz geschrieben, mach bitte dies und das oder ich möchte dies und jenes.

00:10:59: Und du hast ja gesagt, dass also dieses iterative Prompten, das ist so ein Prompten in Schleifen.

00:11:07: Das heißt, wir führen dann das System so ein bisschen und verengen dann immer mehr das, was wir eigentlich meinen.

00:11:13: Kannst du uns vielleicht trotzdem so ein paar von deinen beliebten Abläufen geben oder beliebte Rückfragen, dass man eben besonders gut iterativ prompten kann?

00:11:25: Ja, also man muss ihm natürlich sagen und zum Beispiel in welchem Output Format brauche ich dann jetzt zum Beispiel so eine Antwort.

00:11:34: Viele Leute hören dann einfach, die stellen ihre erste Frage, sehen ein Ergebnis und denken sich dann so, okay, ist jetzt so achtzig Prozent das, was ich möchte.

00:11:43: Aber ich komme eigentlich.

00:11:45: In der Regel zu neunundneunzig Prozent, wenn ich halt die Lücken, die die erste Antwort mir auffülle, indem ich einfach noch mal ganz konkret sage, okay, an der Stelle liegst du falsch.

00:11:54: Pack das noch mal in den richtigen Kontext.

00:11:57: Gebt mir das in einem Format, in zum Beispiel in einer Tabelle oder so, weil ich möchte es dann im Nachgang eben als Excel benutzen und gebe mir zum Beispiel den Download-Format als CSV-Fall.

00:12:10: Solche Sachen funktionieren.

00:12:12: Meistens gut.

00:12:14: Es kann aber wirklich auch durchaus passieren, dass man sich da mal irgendwie aufhängt.

00:12:18: Und er gibt mir absolut nicht das Format, was ich irgendwie am Ende haben möchte.

00:12:23: Dafür ist es eben eine generative KI.

00:12:25: Wir haben ja gelernt, dass es immer so die nächste, wahrscheinliche Token.

00:12:29: Und deswegen kann es eben auch so sein, dass sich sowas mal vergaloppiert und man dann irgendwo falsch abbiegt oder so.

00:12:34: Aber auch dafür gibt mehr LGBT die Möglichkeit zum Beispiel... am Ende das Ganze, was ich erarbeitet habe, nochmal zusammenzufassen, das dann zu nehmen, nochmal einen neuen Chat aufzumachen.

00:12:46: Das muss man eben auch verstehen und befindet sich in so einem Chat, wenn man den einfach von vorne nach unten runter schreibt, in einem Kontextwindow heißt das.

00:12:55: Der weiß alles, was in diesem einen Chat besprochen wird, weil das immer wieder mitgegeben wird, plus meinen ganzen Hintergrund, den ich vorher vielleicht als Memory schon gespeichert habe.

00:13:05: Wenn ich jetzt merke, ich komme irgendwie nicht mehr weiter, dann ist auch wirklich ein guter Tipp zu sagen, alles klar.

00:13:10: Ich fasse jetzt das, was ich da mache, sage ich noch einmal, fasse es mir noch mal zusammen.

00:13:14: Und da mache ich einen neuen Chat auf und dann fange ich nochmal neu an und dann kann es wirklich sein, dass ich sofort genau da lande, wo ich hin möchte.

00:13:21: Okay.

00:13:22: Das heißt, man hat sich manchmal im Chat so viele Bäume ... vor Gesicht, dass man den Wald nicht mehr sieht und dann macht man sozusagen nochmal einen neuen, aber innerhalb eines Projektes oder in richtig neuen Chat.

00:13:36: Also es kommt jetzt darauf an, wo ich mich initial befunden habe, weil es gibt ja dieses Projekt, diese Projektmöglichkeit.

00:13:43: Das heißt, da lege ich mir einen Raum an, in dem ich dann auch zum Beispiel Dateien hochladen kann, Bilder hochladen kann, eine Eingangsgeschichte hinterlegen kann, Eingangspromz und dann prompte ich in die innerhalb dieses Chats und er bekommt im Prinzip auch da wieder den ganzen Kontext mit, den ich eben in diesem einen Projekt habe.

00:14:04: Und wenn ich jetzt dann da drin mich quasi aufhänge, dann kann ich durchaus in diesem Projekt noch mal einen neuen Chat starten und habe dann wieder diese ganzen angehängten Dokumente zum Beispiel mit in dem Kontext.

00:14:17: Oder man kann natürlich auch mal das komplett aus dem Projekt rausnehmen und sagen, jetzt chatte ich einfach nur noch mal ganz roh quasi mit dem reinen Chat, tbt in Chats und fange da nochmal an und gucke, ob ich dazu besseren Ergebnissen komme.

00:14:28: Also man darf da auch, man kann da auch durchaus mal einfach drei, vier verschiedene Wege ausprobieren.

00:14:34: um eben zu seinem Ergebnis zu kommen, was man haben möchte.

00:14:39: Und das ist eigentlich das, was am Ende des Tages auch dann oft zur Erfolg führt.

00:14:45: Also ich programmiere ja sehr viel.

00:14:48: Und sehe das zum Beispiel auch da, dass ich häufig, gerade dann wenn man dann halt im Kot sich verandt hat oder wo, dann ist das ja auch wirklich schwierig da, dann aus so einer falschen Ecke wieder rauszukommen sozusagen.

00:15:02: Und da wechsel ich dann zum Beispiel die Modelle dann ganz oft.

00:15:05: Die halt wirklich von GBT zu Claude und von Claude dann irgendwie zu Gemini oder was auch immer, bis mir dann eine KI in dem Moment hilft.

00:15:15: Also, man da freue ich einfach... loslegen, Gas geben, verschiedene Wege ausprobieren und sucht sich einfach dann am Ende das Ergebnis raus, was man am besten findet.

00:15:24: Ja, genau.

00:15:25: Da kann ich auch noch von von mit Herz und KI ein paar Folgen empfehlen.

00:15:29: für alle, die diese Folge vielleicht noch nicht gesehen haben.

00:15:32: Erst mal zum Prompten selbst.

00:15:34: Da haben wir mehrere Folgen.

00:15:35: Pimp my Prompt.

00:15:36: Und auch dazu, welchen Chatbot man dann für welche Arbeit besonders gut verwenden kann.

00:15:42: Weil sich da nämlich die verschiedenen Gen AI Chatbots auch ziemlich doll unterscheiden.

00:15:48: Und oft benutzt man ja einfach alles, die meisten, die ich so auch so kenne, in meinem Dunstkreis, verwenden einfach immer ChatGPT, aber es gibt wirklich noch Peplexity und Clot und Gemini und so.

00:15:58: Und die haben alle nochmal unterschiedliche Vorteile auch.

00:16:03: Genau.

00:16:03: Wir hatten ja vorab gesprochen und da hattest du so ein paar Punkte genannt, die deiner Meinung nach am wichtigsten sind, um eine ChatchiPity-Expert inzuwerden.

00:16:13: Und mit aufgenommen hattest du Bilder generieren.

00:16:19: Und der Bildgenerator von ChatchiPity, das ist ja auch wirklich so ein kleiner Zauberkasten, den glaube ich auch viele nicht so besonders groß nutzen.

00:16:28: Kannst du uns mal erklären, warum du den Punkt Bilder erstellen mit aufgenommen hast in diesen Crash Course hier?

00:16:35: Ja, gerne, weil ich finde, dass es eben ganz besonders, wenn man zum Beispiel ein neues Projekt hat oder eine neue Firma gründen möchte oder... irgendwelche Dinge visualisieren möchte, bilden natürlich total wichtig sind.

00:16:50: Und wenn ich zum Beispiel ein neues Unternehmen gründe oder eben Freunde für mir das tun oder so was ich dann halt total gerne mache, ist einfach zum Beispiel über das Thema Logo Creation zu iterieren mit ChatGBT.

00:17:03: Und da ist einfach die Kombination aus Text und Image Generation total genial, weil ich kann zum Beispiel damit anfangen, sie sagt, ich habe hier eine Hundeschule.

00:17:15: Und deren Fokus sind die und die Dinge.

00:17:19: Und ich möchte gerne in einem Logo das und das repräsentieren und dieses Gefühl rüberbringen.

00:17:25: Und dann kann ich erst mal mit ChatGPT auf Textebene darüber reden.

00:17:28: Welche Farbe sollte sowas haben?

00:17:30: Was sollte damit drin sein?

00:17:32: so Detail Text sein und so weiter.

00:17:34: Also dann kann ich erst mal über dieses Logo reden.

00:17:37: Und wenn ich dann das Gefühl habe so, oh ja, jetzt ist eigentlich glaube ich alles drin, was ich da drin haben würde und ich habe dann vielleicht auch selber schon eine Vorstellung im Kopf dann zu sagen und jetzt kreieren wir das Bild oder das Logo.

00:17:48: Und dann kann ich mir das angucken, was dann dabei rauskommt, dauert ein bisschen, aber dann, wenn es dann da ist, kann ich jetzt sagen... schon mal sehr cool, aber macht zum Beispiel jetzt den Hintergrund weg, weil ich möchte es halt auf einem transparenten Hintergrund haben.

00:18:00: Also ich kann dann Bilder auch quasi weiter bearbeiten.

00:18:03: Eigentlich fast so ein bisschen wie das, was man vorher in Photoshop gemacht hat, nur ohne dass man jetzt eben ein ganzes Programm wie Photoshop ausrangig lernen muss, um zu wissen, wo da welche Knappe sind.

00:18:11: Ich kann bis heute irgendwie noch kein Background bei Photoshop irgendwie wegmachen.

00:18:16: Aber mit der TVT kann ich halt darüber reden, was ich irgendwie haben möchte und dann macht er mir das halt.

00:18:22: Ich glaube, dass aber viele auch so ein bisschen noch zurückschrecken, gerade im beruflichen Kontext, weil man dann immer nicht so genau weiß, Thema Rechte, Urheber, Recht, Corporate Design.

00:18:33: Hast du da vielleicht auch noch ein paar Tipps, worauf man da als Team oder im beruflichen Kontext besonders achten sollte?

00:18:42: Ja, natürlich.

00:18:43: Also das ist natürlich ein ganz großes Thema für gerade Unternehmen und auch gerade natürlich in Europa.

00:18:50: Also unser EU-AI-Akt hat auch wirklich direkte Auswirkungen auf das, wie wir zum Beispiel in Europa auch die neuen Entwicklungen dieser AI Labs geliefert bekommen oder eben zum Teil auch nicht oder zum Teil später in gar nicht geänderter Version, aber wie immer.

00:19:06: Und da muss man einfach, wenn man auf der sicheren Seite sein möchte, natürlich sich mit seinem Unternehmen abstimmen, fragen, was darf ich, was darf ich nicht.

00:19:17: Das ist im Moment einfach alles noch so ungeriegelt und so.

00:19:22: Nicht final geklärt, ist das jetzt irgendwie fair use, wenn ich eben Musik nehme und daraus eine neue Musik, also daraus eine KI-Trainere, die in der Lage ist, auf dem, was es gelernt hat, neue Musik zu machen, genauso mit Bildern, genauso mit Videos.

00:19:38: Es ist einfach nicht final geklärt.

00:19:41: Und von dem her, es gibt Unternehmen, also es gibt zum Beispiel Adobe.

00:19:46: Hat dann ganz klare Statement, die sagen, wenn ihr unsere Produkte benutzt, auch als Unternehmen zum Beispiel, wenn dann irgendwann mal ein Lawcase daraus werden würde, ihr irgendwie verklagt werden würde, wir zahlen euch quasi diese ganzen Kosten dafür.

00:20:01: So sicher sind wir uns, dass das eben rechtlich... Valide ist.

00:20:05: Aber auch da, es gibt halt einfach natürlich diese ganzen Cases noch nicht, also oder sie werden respektive, sie werden in den USA geführt.

00:20:12: Das sind dann natürlich so Präzidenzfälle dann.

00:20:14: Wir werden die dann natürlich dann noch irgendwann in Europa sehen, aber im Moment schauen wir eigentlich alle nur so über ein Teich und gucken, womit die dann am Ende des Tages ja als Ergebnis dann herumkommen.

00:20:24: Ja, genau.

00:20:25: Also es ist alles ein bisschen nebulös.

00:20:29: Auch dazu hatten wir in einer, also sie ist schon ein bisschen älter halt, genau, da gab es den EU-AI-Akt noch gar nicht.

00:20:37: Aber zumindest hatten wir einen ganz spannenden Talk mit einer Rechtsanwältin, die auch darauf spezialisiert ist, also auf Internetrecht und insbesondere KI-Anwendung.

00:20:48: Und es war ganz spannend, weil es tatsächlich ein bisschen wilder Westen einfach noch alles ist.

00:20:52: Es

00:20:54: hat sich noch nicht so viel geändert, was das angeht.

00:20:56: Also es gibt natürlich diesen EOEI-Act.

00:21:00: Und der wird ja dann auch irgendwann durchgesetzt, sag ich mal.

00:21:05: Das ist dann natürlich auch die Frage, wer soll das alles überprüfen?

00:21:09: Wer soll da eben als Institution dann auch dem hinterhergehen und sagen, das ist jetzt richtig und das ist nicht richtig.

00:21:15: Wo kann man sich dahin wenden und so weiter?

00:21:17: Also da ist noch viel Wasser, was da den Rhein runterläuft.

00:21:22: Eine Funktion, die viele noch nicht ausprobiert haben, ganz bestimmt sogar, weil sie nämlich relativ neu ist, ist der Study Mode.

00:21:30: Den gibt es auch erst seit Ende Juli, und die Idee dahinter ist, dass man jetzt nicht einfach wie sonst ein Prompt zu machen und sich die Antwort abzuholen, mit der KI lernen kann, also indem das Tool selbst Diagnosen anstellt und Rückfragen erstellt, Miniübungen und auch gezielte Wiederholungen, so dass man sich dann ganz aktiv mit den Inhalten auseinandersetzen kann.

00:21:53: Kannst du uns für jemanden, der noch gar nicht mit diesem Study Mode gearbeitet hat, erläutern, was da die großen Vorteile sind und wie uns das einfach noch mal mehr zum Experten macht?

00:22:07: Also das ganz, ganz Neues seit ein paar Tagen jetzt, nachdem GPD-Fünf-Eins herauskam, ist das User-Interface, jetzt diesen kleinen Pre-Button, der da heißt Study Mode, gar nicht mehr anzeigt.

00:22:20: Also das ist auch was, was ich quasi fast täglich bei tbtn ist.

00:22:29: Das ist User Interface.

00:22:30: Man muss ja immer unterscheiden zwischen man hat quasi die Oberfläche, mit der ich arbeite und mit der ich verschiedene coole Sachen machen kann und dann eben die Intelligenz, die dahinter liegt und beides wird halt individuell voneinander abgedatet und auch sehr schnell iteriert.

00:22:44: jetzt bei Open AI.

00:22:46: Und deswegen dieser Study Mode, ich schätze mal, dass man gemessen hat, wie viele die Leute das wirklich benutzen und dann vielleicht einfach entschieden hat, naja, so oft drücken die Leute jetzt auch nicht auf den Knopf, also machen wir es jetzt wieder weg.

00:22:57: oder vielleicht ist es auch wirklich nur ein Beiner, die ein Wischmeier ist jetzt irgendwie weg.

00:23:03: Weil im Grunde habe ich jetzt wirklich nur noch meine eigene, eine Leiste, wo halt steht, frag mich alles oder so.

00:23:11: Und dann kann ich über dieses Plus-Icon, was ich daneben daran habe, eben sagen, ich möchte jetzt eben den Agent-Mode zum Beispiel nutzen oder die Research machen.

00:23:20: Dann gibt es ganz unten diese Buttons, die heißen More, ja, also mehr.

00:23:24: Und wenn man darauf geht, dann haben sie da Study and Learn versteckt.

00:23:28: Und wenn ich jetzt darauf gehe, also der war ja dieser Study-Mode.

00:23:32: ja ursprünglich wirklich mal in diesem initialen Fenster drin, das jetzt nicht mehr so.

00:23:35: Also da findet man ihn gerade.

00:23:37: Und dann ist es so, dass das eigentlich so ein bisschen wie so ein kleiner Rapper quasi ist, um meinen Prompt, den ich jetzt hier reingebe, indem er einfach gesagt wird, okay, gehe davon aus, dass du eben ein Helfer bist, Dinge zu vermitteln und eben nicht einfach nur eine geradeaus Antwort zu geben, sondern den Leser und Hörer.

00:23:58: heranführst, quasi an die Lösung und diesen Gedankengang, der dahinter liegt.

00:24:04: Und das ist ja das, wie wir lernen.

00:24:06: Wir lernen ja nicht dadurch, dass uns jemand das Ergebnis liefert, was ja normalerweise der Modus ist, der Tatchibidi-Hartner, gespuckt und so was Ergebnis aus.

00:24:13: Aber wenn ich wirklich was verstehen und lernen möchte, dann möchte ich ja diesen Weg dahin verstehen und die Gedankengänge, die dahinter liegen.

00:24:20: Und das macht dann eben der Study Mode.

00:24:22: Und wenn ich dann einfach frage, irgendwie, was macht, was ist Machine Learning?

00:24:27: unterscheidet sich von generativer KI oder so, dann würde er eben nicht einfach nur die Antwort raus geben, sondern würde sie sehr viel mehr Hintergrundinformationen geben und den Weg dorthin begleiten.

00:24:48: Ja, macht er auch.

00:24:50: Genau, also es ist wirklich quasi so ein Lern-Guide, wenn man so will, der dann mich auch nochmal rückfragt.

00:24:58: Und mir da die Möglichkeit auch gibt, natürlich zu sagen, okay, wo steh ich denn jetzt eigentlich?

00:25:03: Also auch wie so ein persönlicher Tutor, das ist ja auch so.

00:25:08: der große Traum, den alle haben, dass jeder Mensch und jedes Kind vor allen Dingen natürlich auch einen persönlichen Tutor an der Hand hat, der ihn immer da abholt, wo man ist.

00:25:18: Beim Lernen, das in den richtigen Kontext packt, das ist auch super wichtig.

00:25:23: Ist auch das, was man, ich bin seit mehr als zehn Jahren jetzt schon in einer wachsten Bildung und das, was man am meisten als Trainer einmal hört, das kannst du mir mal ein Beispiel aus der Automobilindustrie geben oder so zum Beispiel.

00:25:34: Und wenn man jetzt als Trainer nicht mal da irgendwie gearbeitet hat, was ich in dem Fall sogar selber getan habe, dann hat man aber natürlich nur begrenzt so viele praktische Beispiele.

00:25:44: Aber TPD hat natürlich unbegrenzt praktische Szenarien und so weiter in diesen verschiedenen Kontexten.

00:25:50: Und dabei hilft dann eben auch so ein Study-Mode, dass er dann einfach das, was ich lernen will, in meinen Kontext packt, basierend auf dem, was ich vorher eben zum Beispiel, was ich gemerkt hat über mich oder was ich halt mit in meinen System Promp gepackt habe.

00:26:03: Okay, ein weiterer Tipp.

00:26:06: Wir haben den eben ganz aus Versehen in dem Sinne angesprochen.

00:26:11: Viele prompten, also wenn sie ein neues Thema aufmachen möchten oder vielleicht sogar ein ähnliches Thema, prompten sie trotzdem immer wieder in einen neuen Chat.

00:26:22: Man geht da auf Plus und los geht's.

00:26:25: Und du hast aber gesagt, es ist viel besser, wenn man Projekte anlegt.

00:26:31: Und wenn man die dann auch gut an oder gut zusammenbaut, dann bekommt man viel, viel besseren Output.

00:26:38: Kannst du das uns noch mal erklären, wo jetzt die Vorteile darin, wo die Vorteile liegen, Projekte aufzusetzen und zu nutzen?

00:26:47: Ja.

00:26:48: Also auf der Seitenleiste findet man unter Projects, also Projekte, die Möglichkeit, ein neues Projekt anzulegen.

00:26:55: Und das ist im Prinzip ... Ja, wie ein Projekt in einem Unternehmen ja auch ist, es ist ein eigenes kleines Unternehmen in einem Unternehmen und hier ist es in dem Fall für Chatibiti eben ein eigener kleiner Raum mit den ganzen Informationen, die für dieses Projekt, was ich habe, eben relevant sind.

00:27:10: Also es kann private, aber natürlich auch berufliche Projekte sein, wenn ich jetzt Chatibiti zum Beispiel als Unternehmen auch nutze und die Lizenz dafür gekauft habe.

00:27:21: Und das Gute daran ist eben, dass ich dann nicht wieder immer jedes Mal, wenn ich einen neuen Chat aufmache, vom Urknall anfangen muss und erstmal alle Dokumente damit reinladen muss und alle vorhergehenden Sachen, die ich mir erarbeitet habe, weil es ist ja im Grunde dieses dynamische Miteinander interagieren, dieses iterative sich an die richtigen Ergebnisse heranzuarbeiten und so weiter.

00:27:40: Das sind ja, das kostet ja auch Zeit und das sind ja auch Ergebnisse, die ich dann später auch wieder nutzen möchte.

00:27:48: Und das finde ich halt in diesem Projekt dann alles ganz schnell wieder, weil wer weiß, wie so eine Chat-History dann aussieht, die irgendwie kilometerlang ist, wo ja dann einfach auch die Namen der Chats einfach so random vergeben werden von ChatDBT, dass sich da dann wieder zurechtzufinden und das Alte wiederzufinden.

00:28:04: Es wird schwierig, deswegen ist das mit den Projekten wirklich super relevant, weil dann kann ich ein kleines Bildchen geben und wenn ich habe ja sicherlich auch nur eine begrenzte Anzahl von Projekten in meinem Leben sozusagen und dann finde ich... sofort wieder den richtigen Kontext und kann die richtigen Dateien wieder verwenden für den nächsten Prompt.

00:28:24: Ich habe alle Ergebnisse, die ich vorher mir erarbeitet habe, auch wenn es halt irgendwie sechs Wochen zurückliegen oder so, habe ich dann noch zur Verfügung.

00:28:30: Und das fließt dann auch jedes Mal dann wieder in meinen neuen Prompt, den ich dann mache, eben mit ein.

00:28:35: Und kann man so vielleicht auch so ein paar der Nachteile des kostenlosen Accounts von ChatGPT umschiffen?

00:28:43: Weil im Projekt, also die einzelnen Chats... haben zwar eine Art Memory Funktion, also innerhalb eines Chats, erinnert sich ChatchiPT in der kostenlosen Variante ja an alle Informationen, aber sobald du einen neuen Chat aufmachst, hat er ja hier keine Memory Funktion.

00:29:00: Und innerhalb von einem Projekt hat er das dann,

00:29:03: ne?

00:29:04: Ja, weiß ich aber gar nicht so genau, weil ich natürlich, wir haben immer die Bezahlversion hier in allen Varianten, Und von dem her kann ich dir jetzt gar nicht sagen, ob in der Stelle jetzt wirklich dieses Projektethema da dann auch wirklich nutzbar ist.

00:29:24: müsste ich nochmal nachschauen.

00:29:27: Also man kann Projekte zumindest anlegen.

00:29:29: Ja, okay, dann wird man sie so nutzen können, dann wäre das auf jeden Fall ein... Aber dann ist natürlich wieder Achtung, Achtung, wenn man nicht bezahlt, wenn man nennt, if you don't pay for the product, you're the product.

00:29:40: Das heißt, dann ist natürlich alles, was ich da reinprompte und alle vor allen Dingen Dokumente.

00:29:44: und gerade wenn es noch unterlebensrelevante Sachen sind, dann sind die natürlich einfach für OpenAI nutzbar.

00:29:49: Da werden die neuen Modelle drauf trainiert.

00:29:51: Man weiß nicht, ob die Sachen doch nochmal im Netz irgendwann... auftauchen.

00:29:55: Also da wäre ich sehr vorsichtig.

00:29:58: Genau, weil es gibt ja auch bei der kostenlosen Variante die Möglichkeit den privaten Modus einzustellen in den Einstellungen.

00:30:06: Und da wird dann ja theoretisch gesagt, deine Daten werden nicht zum Training verwendet.

00:30:13: Muss man sich dann trotzdem Gedanken

00:30:14: machen?

00:30:15: Also, wie gesagt, die Technik und das ist alles ja dann doch noch relativ neu.

00:30:19: Also ich wäre immer ein bisschen vorsichtig.

00:30:23: Also es muss mir einfach klar sein, keiner weiß, ob nicht morgen ein Riesen-Daten-League ist, weil irgendjemand es geschafft hat, jetzt irgendwie in die Server von OpenAI einzuberechen oder was auch immer.

00:30:33: Also das muss mir immer irgendwo bewusst sein.

00:30:35: Die Gefahr ist natürlich immer da.

00:30:38: Dieser Privatmodus ist insofern sehr hilfreich, auch bei egal ob bezahlt oder unbezahlt.

00:30:44: Wenn ich jetzt einfach nochmal ein Chat habe, wo ich wirklich sage, Ganz bestimmt möchte ich niemals, dass es irgendwo aufteilhaft taucht, was auch immer ich dazu besprechen habe.

00:30:52: Dann ist es auf jeden Fall eine super Möglichkeit, diesen Chat privat zu machen.

00:30:57: Das heißt aber auch, dass er bei mir nicht in den Chats auftaucht und ich ihn später nicht mehr hervorrufen kann.

00:31:03: Und dann habe ich eine gewisse Sicherheit, weil das ja dann auch nur eine gewisse Zeit sozusagen, also das ist die Aussage, was die jetzt genau machen, wissen wir natürlich auch nicht, aber... Die Aussage ist, wenn ich das Ding nutze, dann wird das auch nur sehr kurz, wenn überhaupt gespeichert bei OpenAI und dadurch ist eben diese Privacy auch gegeben.

00:31:22: funktioniert aber nicht für Projekte.

00:31:24: Weil Projekt per Definition ist ja was, was gespeichert werden muss, wo eben Files reingeladen werden, die dann später auch noch da liegen sollten und so weiter.

00:31:31: Und das geht halt nicht im Private Mode.

00:31:34: Wobei das ja auch.

00:31:35: Also es ist auch noch eine zweite Frage, die ich habe, weil ich jetzt gerade gelesen hatte.

00:31:38: Es war ja lange Zeit, hat man gesagt, oh, das ist ein Nachteil bei Gemini zum Beispiel, weil Gemini speichert alles dauerhaft.

00:31:46: Ist es nicht sogar beim AI Act jetzt so, dass zumindest in der EU alle Daten.

00:31:53: Ach nee, das ist noch anders.

00:31:55: Ich glaube, das war durch diese ganzen Rechtsstreite rein, die teilweise gegen OpenAI von Unternehmen geführt wurden, dass jetzt die Daten erst mehr gespeichert werden dürfen aufgrund dieser Ungreimtheiten.

00:32:12: Deswegen ist das absoluter Wilder Westen.

00:32:14: Es ändert sich auch immer wieder, dann ist es wieder das, dann ist es wieder das.

00:32:17: Also das war nämlich zumindest das, was ich jetzt auch noch mal gelesen hatte, aber es muss auch nicht stimmen.

00:32:22: Dass ich gelesen hatte, auch OpenAI, also auch ChatGPT und auch die anderen Chatbots sind jetzt gezwungen oder zumindest ChatGPT.

00:32:30: die Daten dauerhaft zu speichern.

00:32:32: Ja, sowas hat dann natürlich auch nochmal irgendwie andere Gründe.

00:32:36: Ja, also weil so eine CIA oder so Unternehmen sind es ja nicht irgendwelche Security-Organisationen und so weiter dann eben auf Daten zugreifen wollen.

00:32:53: Diese Diskussion haben wir ja auch irgendwie mit Signal jetzt wieder gesehen und so.

00:32:57: im Prinzip Europa wollte, dass man im Prinzip als Staat, als Land da irgendwie eingreifen kann und das Unternehmen zwingen kann, die Daten rauszurücken.

00:33:07: Und hatte nicht mal was unbedingt mit dem EUEI-Akt oder so zu tun.

00:33:12: Das war, glaube ich, eher so aus der amerikanischen Regierung heraus, die gesagt haben, so, nee, wenn wir wollen immer in der Lage sein, zu kommen und zu sagen, zeig uns, was derjenige da besprochen hat oder so, genau.

00:33:23: Und wir hatten auch vorhin noch mal, oder du hattest den Agent Mode angesprochen.

00:33:28: Und das finde ich ist ja auch so ein wichtiges Thema, weil es wird so viel über KI-Agenten gesprochen, wobei dann auf der Begriff so ein bisschen unklar, also auch so nebulös ist.

00:33:39: Was ist denn jetzt eigentlich der einen KI-Agent?

00:33:41: Auch dazu hatten wir jetzt gerade eine ganze Folge, die ist auch sehr, sehr, sehr sehens- und höhrenswert.

00:33:48: Aber ich würde das auch gerne noch mal mit dir besprechen, weil auch du hast das diesen Punkt aufgenommen in die Liste, die uns zum ChatGPT-Expert in Macht.

00:33:57: Kannst du uns das vielleicht ein bisschen erklären, was denn jetzt tatsächlich ein KI-Agent ist?

00:34:02: und dann auch eigentlich ist ChatGPT an sich noch kein Agent, aber er hat einen Agent-Mode und den würde ich mich super freuen, wenn du uns den erklären könntest.

00:34:13: Ja, gerne.

00:34:14: Also der Agent, also ich kann dir meine Definition von Agent geben, weil ich finde es immer ganz schön an Agency zu denken.

00:34:21: Also ich habe selber die Fähigkeit, Dinge auszuführen und selbstständige Entscheidungen zu treffen.

00:34:26: So, das macht für mich ein Agent aus.

00:34:29: Wenn ich einfach nur hin und her chatte.

00:34:31: mit dem Chatboard, der mir einfach nur Antworten gibt oder so, dann ist das nicht Agent Mode, weil ich keine Tools zum Beispiel verwende.

00:34:39: Und das ist genau dieser Hintergrund, vor dem jetzt in Chat GBT der Agent Mode läuft.

00:34:44: Er ist in der Lage, Tools zu verwenden, also sich zum Beispiel kleine Python-Programme zu schreiben und dann dadurch eben die Antworten zu verfeinern, die er es hat.

00:34:55: oder eben auch und das ist natürlich das was am meisten impressive ist, ist so dieses ich übernehme einen browser und navigiere mich in diesen browserfenster herum und erledige eben so Aufgaben für den Nutzer.

00:35:11: und das ist das was natürlich irgendwie cool ist sich anzuschauen und irgendwie das sollte man auch wirklich einfach mal ausprobieren.

00:35:19: Aber sie sind alle, egal wo man jetzt hinschaut und selbst jetzt, wo Gemini III rauskam und da ja auch dann gleich wieder eine neue, neue IDE, was so eine Programmier-App ist, wenn man so will.

00:35:34: Die hat auch diesen Mode, dass sie sich im Browser aufmacht, sich da selber durch navigiert und dann programmiert und immer wieder guckt, okay, wie weit bin ich denn?

00:35:41: Wie sieht denn das jetzt ausgemacht, dass die Funktionen, die ich halt möchte oder die ich programmieren möchte und kann Fehler selber finden und so weiter.

00:35:47: Das gleiche macht dieser Agent Mode von JetGPT auch.

00:35:51: Ich kann ihn quasi auf irgendeine Website schicken und sagen, suchen wir jetzt zum Beispiel bei Airbnb malen, was zum Übernachten in Berlin an so und so vielten.

00:35:59: Und finde mir da schöne Alternativen, wo ich mit meinen Hunden hin kann oder was auch immer.

00:36:06: Ist cool, sich anzuschauen, macht Spaß.

00:36:10: Ist jetzt auch nochmal erweitert worden durch den Atlas Browser, den OpenAI ja rausgebracht hat.

00:36:17: Und da sieht es jetzt auch noch fancy aus.

00:36:19: Da gibt es dann so um diese Animationen herum, wo man dann zugucken kann, quasi wie der Browser, die die Aufgaben ausführt.

00:36:28: Noch so eine schöne Animation und so, das sieht irgendwie ganz schick aus.

00:36:32: Ist aber im Grunde, also wenn ich das mal angucken will, ist es schön, aber ist im Grunde noch viel langsamer, als wenn ich mir selber mal ins Hotelzimmer da suche oder was auch immer.

00:36:40: Und es ist vor allen Dingen natürlich in dem Moment noch eine eine tolle Möglichkeit für die Unternehmen Nutzerverhalten zu speichern, zu analysieren, herauszufinden, wie nutzen Leute, Browser, wo gehen sie hin, was machen sie, nachdem sie das gemacht haben und so weiter, um dann eben die kommenden Modelle genau auf dieses Thema zu trainieren.

00:37:06: Also von dem ja für einen Alltag, wenn man es mal sehen möchte, ist Atlas cool.

00:37:11: Ja, ich würde auch da, ich würde jetzt da keine Passwörter reingeben, ich würde da auf gar keinen Fall irgendwelche Bankingsachen drin machen oder so, dafür sind sie einfach.

00:37:19: Also es wird alles aufgezeichnet und das ist wirklich den größten Vorteil, hat jetzt im Grunde Open AI, das muss man sich bewusst sein.

00:37:27: Aber es ist einfach eine coole Technik, die es auf jeden Fall sich lohnt, irgendwie anzuschauen.

00:37:31: Und deswegen eben auch vielleicht jetzt ohne Atlas Browser den Agent-Mode zu nutzen, ist eine schöne Möglichkeit, um einfach mal zu sehen und Gefühl dafür zu kriegen, wo geht es dann wahrscheinlich hin?

00:37:44: Ich will auf jeden Fall auch nochmal gleich gesondert mit dir über Atlas sprechen, weil ich finde das auch super spannend.

00:37:50: Es ist ja eine Mega-Kampfansage.

00:37:53: Ich weiß aber selber auch noch nicht so genau, was ich davon halten soll.

00:37:58: Aber der Ordnungsliebe, meine Ordnungsliebe, wo ich so ordentlich bin, ich eigentlich gar nicht, aber trotzdem würde ich gerne noch einmal kurz bei den, beim Agent Mode nachfragen.

00:38:09: Den habe ich nämlich tatsächlich, ich habe die Finger bisher davon gelassen, weil ich noch gar nicht so genau wusste, wofür soll ich ihn jetzt nutzen.

00:38:15: Also ich hatte so den Eindruck, dass bisher viele KI-Agenten eher so im unternehmerischen Kontext eingesetzt werden.

00:38:25: Und jetzt für mich, ich benutze es natürlich im privaten als auch im beruflichen Chatchapity, aber ich habe diesen Agent-Mode noch nicht verwendet.

00:38:35: Was würdest du zum Beispiel mir raten, für welche agentische Arbeitsweisen kann ich das einsetzen?

00:38:42: Also wie gesagt, im Moment würde ich einfach raten, das mal auszuprobieren, um dieses Erlebnis so zu haben, wie der Agent eben arbeitet.

00:38:51: Und wenn ich jetzt zum Beispiel eine Recherche Aufgabe habe, wo ich sage, da kann ich jetzt mal ein bisschen zugucken, weil er macht im Prinzip in ChatTBT selber ein kleines Fenster auf, macht da so eine kleine virtuelle Maschine, die dahinter liegt und ich kann live zuschauen, welche Webseiten er jetzt zum Beispiel besucht.

00:39:11: Hotelzimmer in Berlin oder was auch immer.

00:39:12: sucht mir das jetzt mal raus.

00:39:14: Dann geht er eben auch auf verschiedene Webseiten, klickt sich dadurch.

00:39:19: Ich sehe im Prinzip, wie er den Text dann raus extrahiert und das eben dann zusammenfasst und daraus dann eben eine Best-of-Liste macht oder was auch immer dann für Empfehlungen am Ende gibt.

00:39:31: Und es gibt dann im Prinzip so ein Recording davon.

00:39:34: Man recordet wirklich wie dieser Agent arbeitet und kann das dann hinterher sich auch nochmal angucken, wenn man jetzt nicht daneben sitzen möchte und zugucken will sozusagen.

00:39:45: Aber im Grunde navigiert er für mich das Internet.

00:39:48: Also jede Form von Recherche ist gut geeignet und gibt mir dann am Ende einfach eine schriftliche Zusammenfassung von dem, was er eben draus gefunden hat.

00:39:58: Magst du uns noch mal erklären, wo finden wir das denn, wenn wir das jetzt tatsächlich mal ausprobieren möchten?

00:40:03: Genau, das ist wieder mit diesem kleinen Pluszeichen in meinem Chat Windows.

00:40:07: Da, wo ich meine Promets reinpacke, gehe ich auf dieses Pluszeichen und dann habe ich ganz oben die Dateien, die ich hochladen kann.

00:40:17: Dann ist Deep Research.

00:40:20: Macht im Prinzip was Ähnliches, aber ich kann nicht zugucken, wie er das Web navigiert.

00:40:25: Und der Agent-Brot ist direkt da drunter.

00:40:28: Okay, super.

00:40:30: Wir hatten ja auch jetzt schon gesprochen bei diesen Chatbots, ganz am Anfang hast du das erklärt, diese riesige Unsicherheit, die Möglichkeit, dass der Chatbot gerade haluziniert.

00:40:40: Das Problem ist ja auch nicht immer nur, dass vielleicht veraltete Datenmengen daran schuld sind, sondern manchmal ist ja liegt es in der Natur des Chatbots, dass er ja den Auftrag hat, eine Frage zu beantworten.

00:40:53: So, und wenn er jetzt dazu irgendwie gar nichts weiß oder gar nichts hat, dann denkt er sich halt wirklich auch ganz kreativ Sachen aus.

00:41:00: Das heißt, ohne Quellen sind ja Angaben von Chatbots immer einfach nur eine Behauptung.

00:41:05: Und dann gibt es Chatbots, wie zum Beispiel Perplexity, die haben schon eine integrierte Websuche.

00:41:10: Das heißt, man kann da auch immer auf Echtzeitdaten zurückgreifen.

00:41:15: Man hat da immer direkt die Quellenangaben mit dabei.

00:41:19: Ähm, wie sieht es denn mittlerweile aus?

00:41:22: Also wann reicht eine normale integrierte Suche?

00:41:27: Wann würdest du tatsächlich sagen, nein, das mache ich jetzt zum Beispiel nicht mehr über ChatGPT, sondern ich weiche aus auf Perplexity.

00:41:34: Also es ist wirklich so eine Alltagsentscheidung, die ich auch ganz oft treffe.

00:41:38: Ähm, ich möchte, wenn ich jetzt wirklich mal ein Thema tiefer betrachten möchte.

00:41:45: aus verschiedenen Perspektiven, vielleicht auch Studien usw.

00:41:48: mit einbeziehen möchte, dann finde ich wirklich die Deep-Research-Funktion von ChatGBT super.

00:41:54: Muss auch daran rechnen, das dauert dann durchaus auch mal eine halbe Stunde, aber das arbeitet ja im Hintergrund weiter, während ich andere Dinge machen kann.

00:42:02: Und da kriege ich auch Quellenangaben.

00:42:05: Allerdings habe ich auch schon festgestellt, wenn man da reingeht, dann findet man oft nicht das, was angeblich drin war.

00:42:13: Also nur muss man alles immer schön mit Vorsicht genießen und so weiter.

00:42:18: Und wenn ich aber wirklich eher so ganz aktuelle Sachen wissen möchte zu zum Beispiel einer Person.

00:42:25: Also heute Morgen zum Beispiel habe ich kurz Pfeiffer Lee recherchiert.

00:42:29: Da gehe ich immer zu Perplexity.

00:42:31: Weil ich finde die zusammen, es geht schneller.

00:42:34: Die Zusammenfassung ist besser.

00:42:35: Es ist immer relevanter und aktueller.

00:42:39: Und ich habe halt wirklich auch gleich die Links dazu, ich habe Bilder von ihr dazu und ich finde einfach da das User Experience irgendwie, also sehr viel besser als jetzt in Chatchabity, jeder dann losrennt und jetzt vielleicht eine halbe Stunde irgendwie darüber nachdenken muss, wer fallfällig ist und warum sie irgendwie wichtig ist.

00:42:55: Das heißt, paradoxerweise sind wir auch dann ein Chatchabity Expert in, wenn wir wissen, ab und zu verlassen wir Chatchabity auch mal wieder und kehren uns einem anderen

00:43:06: Chatboard zu.

00:43:07: Ja, finde ich schon.

00:43:09: Weil das ist auch wirklich das, wo es am Ende hingeht.

00:43:12: Und wenn man mal guckt, wie wir in Zukunft arbeiten werden, dann glaube ich ganz fest daran, dass wir halt quasi der Orchestrator sind sozusagen von diesen verschiedenen Kis und weiß, was für was für mich gut ist.

00:43:29: Das muss jetzt auch nicht für dich gut sein, das, was ich gut finde.

00:43:32: Das ist ja auch sehr persönlich und einfach Erfahrung.

00:43:35: durchaus auch, wie man mit den KI's eben umgeht und was so seine Erlebnisse da bisher so waren.

00:43:42: Das ist auch eben seine persönliche Entscheidung.

00:43:45: Aber in der Lage zu sein, zu sagen, ich weiß, wenn ich die drei Tools jetzt aneinander hänge, ich mache mir eine Deep Research bei TechBT.

00:43:53: Ich gehe vielleicht nochmal gucken bei Perplexity, zum Beispiel auch gerade für alle technischen Sachen.

00:43:59: Terplexity ist halt wirklich super darin, ganz schnell Dokumentationen von irgendwelchen Tools anzugucken.

00:44:05: Wenn ich sage, wie kann ich jetzt in... Photoshop irgendwas machen oder so, dann sind die halt wirklich ganz toll darin, ganz schnell zu gucken, okay, wie funktioniert das hier?

00:44:14: Ja, TPD gibt mir auch eine Antwort, aber die funktioniert dann oft am Ende des Tages nicht.

00:44:18: Und per Plexity weiß das dann halt.

00:44:20: Und wenn ich jetzt dann diese verschiedenen Ergebnisse, die ich habe, wirklich komponieren kann oder verschiedene Tools hintereinander packen kann, um dann zum Beispiel so einen automatisierten Prozess.

00:44:30: daraus zu machen.

00:44:31: Das ist halt das, was uns dann ausmacht und weswegen die Ergebnisse dann so viel cooler sind, als wenn man es einfach nur in eine KI reinpackt.

00:44:39: Ja, okay.

00:44:40: Wir kehren aber jetzt wieder hübsch zu ChatchiBiti zurück.

00:44:44: Und einer deiner Tipps war ja auch, dass man Canvas verwendet.

00:44:49: Canvas ist eine Applikation, die ist bei ChatchiBiti so eine Art eigener Arbeitsbereich neben dem Chat.

00:44:58: Auch wichtig, also nicht zu verwechseln, eben mit Canva.

00:45:01: Canva ist ja auch so ein Tool, das auch viele Redakteure natürlich kennen, weil das da so Design-Tools mit Templates gibt und so.

00:45:09: Und ich glaube, es gibt sogar auch einen Plug-in für Chatchi-BT, dass man eben Canva und Chatchi-BT so gemeinsam verwenden kann.

00:45:16: Aber du meinst, es hat einen riesengroßen Vorteil, Canvas, also mit dem S Canvas zu benutzen.

00:45:21: Kannst du uns erklären, was das konkret für uns bringt?

00:45:24: Ja, also es ist so ein bisschen so das Gefühl von, also gerade für Texte schreiben oder so von, sag ich mal, einem Word innerhalb von LGBT.

00:45:35: Man erreicht es auch wieder, indem man in den Prompt-Fans da seinen Prompt eingibt, also zum Beispiel sagt, schreib eine Geschichte.

00:45:42: Und dann müssen wir jetzt wieder über den Moa-Button da gehen und dann kennen wir es einfach.

00:45:47: Das ist so ein kleiner Bleistift mit einem Sternchen.

00:45:51: Dann einfach anklicken, dass der weiß, okay, ich möchte jetzt da eben diese Canvas-Version haben.

00:45:57: Und es zeichnet sich dadurch aus, dass ich dann, wenn ich da reingehe, auf der linken Seite mein Chat habe, wo ich einfach diese Geschichte jetzt zum Beispiel die Schreibe verweitern kann.

00:46:06: Und auf der rechten Seite habe ich halt ganz groß jetzt meine Geschichte.

00:46:10: Und kann dann an der Stelle auch diese Geschichte eben mit noch so ein paar Editierfunktionen verbessern, wie zum Beispiel einfach mit einem Klick sagen, mach's mal länger.

00:46:22: Schreibt die Geschichte, es sollte ein bisschen länger sein oder für wen ist es gedacht.

00:46:26: Es ist jetzt eine Kindergeschichte oder was anderes.

00:46:31: Wenn ich jetzt eine Geschichte mit tausend E-Motis habe, möchte drin, dann kann ich jetzt an der Stelle dann zum Beispiel mit einem Klick sagen, pack mit der E-Motis rein oder ich prompt das halt auf der linken Seite und sage, ja, ender mir mal den Anfang der Geschichte oder mache es ein happy ending oder eben nicht.

00:46:45: Und ich habe auf der rechten Seite halt immer diese ganzen Editierfunktionen sozusagen und das ist einfach ein schöneres Experience als nur in diesem Chat, wo man ja dann doch platzmäßig auch einfach limitiert ist.

00:46:57: Ja.

00:46:58: Wo ist denn aber die Abgrenzung zu dem iterativen Prompten und dem Arbeiten, dem Verbessern in Canvas?

00:47:05: Weil ich glaube, viele würden das, was du jetzt beschrieben hast, einfach im Chat direkt machen, wenn man sieht, oh, das ist mir zu lang, dann sagt man, das ist schon gut, aber kürze das bitte auf so einen Zufizeichen oder mach es irgendwie um ein Drittel kürzer oder so.

00:47:17: Wie grenzt sich das voneinander ab?

00:47:20: Ja, also ich habe jetzt zum Beispiel hier so eine richtige Versionshistorie drin.

00:47:24: Wenn ich jetzt ... Während ich, wenn ich jetzt so einfach so runterchatte und dann sage, mach die Geschichte ein bisschen länger, dann macht das vielleicht ein bisschen länger.

00:47:31: Wenn ich dann aber sage, mach sie wieder ein bisschen kürzer, dann kann er sein, dass er halt, dann fängt er quasi wieder neu an, die Geschichte zu schreiben.

00:47:37: Dann kann es sein, dass er mir die Geschichte ändert, obwohl ich die gar nicht geändert haben wollte.

00:47:40: Ich wollte nur ein bisschen Absatz noch dran haben oder so.

00:47:43: Und das habe ich halt in diesem Kanvas dadurch gelöst, dass ich halt diese Versionshistorie habe.

00:47:47: Ich kann halt sofort wieder eine Version quasi zurückgehen und mir die eben wiederholen.

00:47:53: Und ich kann aber eben auch coole Sachen machen, wie ich kann ja quasi in Abschnitt zum Beispiel in meiner Geschichte markieren.

00:48:01: Da wird dann so ein kleines Pluszeichen dazu gemacht und dann kann ich halt sagen hier in diesem Absatz füge doch bitte noch einen weiteren Charakter mit rein oder so auch immer.

00:48:13: Das kann ich bei diesem normalen Hin- und Her-Chat nicht.

00:48:15: Also, dass ich wirklich nur Abschnitte bearbeiten kann und den Rest behalten kann.

00:48:20: Weil jedes Mal, wenn ich auf Senden drücke, wird mir komplett alles noch mal neu generiert.

00:48:25: Und dadurch passieren dann auch wieder Fehler.

00:48:27: Ja, super.

00:48:28: Also, man hat das viel, viel, viel besser, viel sauberer alles aufbereitet.

00:48:32: Genau.

00:48:32: Und man kann viel gezielter eingreifen und Änderungen eben auch nur in Peilen von dem Ergebnis machen.

00:48:38: Genau.

00:48:39: Cool.

00:48:39: Okay.

00:48:40: Gut.

00:48:41: Ich glaube, wir haben

00:48:41: noch...

00:48:42: drei Tipps.

00:48:44: Ja, wir hatten so gesagt, wir wollen ja in vierzeig Minuten zum Chatchapity Experten werden.

00:48:48: Ich glaube, wir brauchen eine Stunde, um Chatchapity Experts zu werden.

00:48:54: Und das war nämlich auch sehr spannend.

00:48:55: Wir haben ja eben auch schon angesprochen, dieses Dilemma, dass man eben nicht so genau weiß, wo die Daten lange geparkt werden und ob das jetzt gelöscht werden darf und was eben vielleicht eben nicht gelöscht wird.

00:49:10: Wir wollen natürlich auch in vielen Fällen, dass das System sogar ein Gedächtnis hat, aber dann gibt es natürlich auch viele Sachen, vielleicht so heikle, einmalige, vertrauliche Aufgaben.

00:49:22: Da möchte man ganz gerne diesen Kurzparkplatz haben.

00:49:24: Und da gibt es dann diesen Temporary Chat.

00:49:27: Kannst du uns auch noch mal sagen, wo finden wir den, wie aktivieren wir den und welche Fälle parken wir denn jetzt da?

00:49:33: Den finden wir jetzt aktuell, weiß ich noch nicht, wie es morgen ist, aber im Moment, wenn ich einfach reingehe in der GPT oben rechts, ist so eine kleine ausgegraute Dottet-Sprechblase.

00:49:47: Wenn ich die anklicke, dann bin ich im Temporary-Chat.

00:49:51: Und das bedeutet, er speichert nichts in die Memories.

00:49:55: Also er würde den dann auch direkt danach wieder verwerfen.

00:49:59: Ich kann den nicht nochmal hervorholen.

00:50:03: Und genau, das sind jetzt eigentlich so gerade die Vorteile, was ich für Themen damit bespreche.

00:50:08: Es ist halt wirklich einfach, wenn ich sage, das ist was, was ich nicht möchte, dass irgendjemand mit liest sozusagen.

00:50:16: Und wo es mir aber auch ganz klar ist in dem Moment, dass ich darauf auch nicht mehr hinzugreifen werde wollen.

00:50:25: weil offensichtlich ist dann weg oder was ich natürlich machen.

00:50:28: Das ist aber auch sicher, dass es weg ist.

00:50:30: So sicher wie das Open AI sagt, dass das weg ist.

00:50:34: Aber sicherer als wenn wir das einfach so im normalen Chat haben.

00:50:38: Wir müssen uns ja immer, wenn man Dinge benutzt, dann muss man sich ja immer auf die Herstellerangaben irgendwie verlassen.

00:50:44: Und je nachdem, was da unser Vertrauenslevel in den Open AI ist, kann man sich dann darauf verlassen, dass das weg ist.

00:50:51: oder eben hat immer noch Zweifel.

00:50:53: und dann Wir haben ja ganz eine gute Alternative im Übrigen, was auch ein Pro-Tipp von ChatGBT ist.

00:51:01: OpenAI hat ja auch Modelle veröffentlicht und ich kann mir die auch runterladen und dann eben bei mir lokal auf dem Rechner solche Sachen zum Beispiel bearbeiten besprechen und dann habe ich das immer lokal bei mir liegen.

00:51:17: Das wäre die aller aller sicherste Variante.

00:51:20: Okay.

00:51:21: Super und es gibt aber auch ein Memory Feature.

00:51:26: Also es ist jetzt nicht einfach so, dass man nur in den Einstellungen in der Funktion angeben kann.

00:51:31: Ich möchte, dass es an oder aus ist, sondern da gibt es noch so viel mehr Raffinessen.

00:51:37: Kannst du das auch noch mal so ein bisschen erklären?

00:51:40: Was gehört in dieses Memory Feature?

00:51:44: Das Memory Feature ist insofern spannend, weil es irgendwie so halb gemanagt und halb nicht gemanagt ist sozusagen, also im Sinne von Er merkt sich proaktiv Dinge und packt die in dieses Memory.

00:51:57: Da sind so kleine zusammengefasste Schnipsel über das, was wir geredet haben.

00:52:00: Wenn das sinnvoll ist, sich das zu merken für kommende Diskussion, dann greift er das gerne auf und packt das in die Memory.

00:52:08: Oder wenn ich es ihm sage, ich kann auch wirklich sagen, merke dir von mir, ich hab ein Hund, der heißt so und so.

00:52:14: Das mache ich dann innerhalb des Chats.

00:52:15: Das mache ich innerhalb des Chats.

00:52:16: Aber vorher muss ich da das Memory-Feature irgendwie angeschmissen haben.

00:52:20: Richtig, genau.

00:52:21: Ich gehe quasi in die Settings, die sind gerade unten links.

00:52:25: Und dann gibt es so eine Personalisierung, einen Reiterpunkt quasi.

00:52:30: Und da muss man runter scrollen, das ist auch nicht ganz oben, sondern runter scrollen.

00:52:33: Und da unten ist die Memory.

00:52:35: Und dann kann man sagen, da muss man den Toggle anmachen.

00:52:37: dann merkt er sich eben Sachen.

00:52:39: Und dann kann ich aber auch so auf diesen Manage-Button gehen.

00:52:41: Und wenn ich auf den Manage-Button gehe, dann lädt er mir im Prinzip alle Erinnerungen, die er an unsere vorangegangenen Diskussion hat.

00:52:47: Ist jetzt gar nicht so irrewitzig viel, wie man sich das vielleicht vorstellt.

00:52:51: Also ich würde mich jetzt wirklich hier als Power-User benutzen.

00:52:54: Und also ist es eine Liste, wo ich irgendwie mit drei Scrolls quasi unten bin.

00:53:00: Und ich kann da jederzeit im Prinzip reingehen, kann entweder sagen, löscht mir alles raus.

00:53:05: Oder aber löscht mir einzelne Sequenzen raus.

00:53:08: Ich sag, das geht dich nichts an, mach's weg.

00:53:11: Oder vor allen Dingen, wenn ich irgendwas weiß, was ich nicht ständig wieder in den Kontext von meinen Unterhaltungen haben möchte, dann kann ich das wieder rausnehmen.

00:53:19: Und ganz gezielt das eine dann zum Beispiel nur löschen.

00:53:21: Genau, das wäre nämlich jetzt die nächste Frage gewesen, ob das eventuell auch, wenn man nicht so genau weiß, was man da eigentlich macht, die Sachen auf einmal verkompliziert.

00:53:28: Weil man vielleicht in irgendeinem Chat irgendwas ... besprochen hat, also wenn man es reingeschrieben hat, was er dann jetzt auf einmal so wie so eine schlechte Beziehung, wo dann immer alles nochmal auf den Tisch gelegt wird bei jeder neuen Diskussion, dass er das dann auf einmal auch ausholt und sagt, hier, vor zwei Jahren hast du doch Disneynes geschrieben, kann man da auch sich sozusagen, wenn man sich das schlecht zusammenbaut, Probleme nochmal aufladen?

00:53:55: Also ich meine jetzt, wo ja jetzt jeder Hörer und jede Hörerin auch Experte ist, weiß ich ja, dass ich dann eben in meine Art, in die Tantive-Team-Memory gehe und diesen Teil vielleicht einfach rauslösche, wenn es mir ein bisschen komisch vorkommt.

00:54:10: Ansonsten, wie gesagt, ist es, dieses Thema Memory ist ja auch wirklich was, was für die Zukunft jetzt auch noch superrelevant ist, weil ja die Modelle auch dann natürlich umso mehr nützlich werden, umso mehr Informationen sie ja wirklich über uns haben.

00:54:23: Und diese Memory Funktion, die wir jetzt hier haben, ist eigentlich wirklich nur so ein kleines, banales, mitgeliefertes Feature sozusagen, was so kleine Probleme vielleicht löst, dass ich nicht jedes Mal alles wieder neu erklären muss und so weiter.

00:54:40: Aber so richtig toll funktioniert es jetzt ja noch nicht.

00:54:43: Also ich habe trotzdem das Gefühl, dass ich ganz oft Sachen einfach nochmal und schon wieder und bitte, wie sagen wir immer, du und dann plötzlich siehst du mich da wieder und so.

00:54:52: Also es hat auch noch ganz viel Luft nach oben sozusagen.

00:54:56: Okay, aber trotzdem gut zu wissen und also auch gut zu wissen, dass es das gibt, dass man es anmachen kann, dass man aber immer mal wieder vielleicht auch entrümpeln muss da.

00:55:05: Das ist ein super Tipp, genau.

00:55:07: Ja, genau.

00:55:07: Okay, cool.

00:55:08: Dann kommen wir zum allerletzten Tipp und den finde ich mich auch nochmal sehr spannend, weil... Auch für mich, dass es sehr neu ist und ich glaube auch für viele andere von unseren Hörerinnen und zwar der Atlas Browser.

00:55:20: Das ist wirklich neu.

00:55:23: Ich glaube, ich weiß gar nicht seit wann es den gibt.

00:55:25: Also ne, seit Oktober, glaube ich, seit Oktober, zwanzigundzwanzig, auch in den USA erst zu haben.

00:55:31: Und das ist ja so eine absolute Kampfansage an die die Browser-Platzhörsche, die wir so kennen, also Google, Chrome, Safari, Microsoft Edge.

00:55:41: Das heißt, Atlas Browser ist OpenAI's eigener Web Browser, in dem immer schon ChatchiPT eingebaut ist.

00:55:50: Kannst du uns erklären, was der macht?

00:55:54: Für welche Aufgaben du vielleicht auch Atlas schon einsetzt?

00:55:57: Gerne.

00:55:58: Also es ist auch hier verfügbar.

00:56:00: Ich kann ihn jetzt hier auch direkt runterladen und nutzen.

00:56:03: Ich glaube aktuell nur auf Mac.

00:56:05: Aber ich habe net, weil ich ja nerd bin, habe ich mich natürlich runtergeladen.

00:56:08: Ich wollte ihn natürlich ausprobieren.

00:56:12: Es ist im Grunde, wie ich es vorhin eigentlich schon mal angedeutet habe, den größten Vorteil der Nutzung von dem Erklass-Bauser hat im Grunde OpenAI, weil sie meinen Nutzerverhalten im Web jetzt komplett von vorne bis hinten mit verfolgen können.

00:56:30: wenn ich halt diesen Browser nutze.

00:56:32: Es fehlen noch einen Haufen Convenience Features, die für mich ein Browser zu einem guten Browser machen, also so Sachen Profile wechseln und die Tabs an verschiedenen Stellen anordnen und solche Sachen, das ist alles noch nicht drin, also ist er noch relativ roh.

00:56:49: Und ich finde, wie gesagt, ich finde einfach, dass das gefühlt, dem Ding zu arbeiten, finde ich, das haben sie schon sehr schön hingekriegt.

00:56:56: Also es hat einfach eine superinteressante Oberfläche, was auch irgendwie ein bisschen fancy ist mit ein bisschen Sparkling und so weiter.

00:57:04: Also es macht irgendwie Spaß, das zu benutzen.

00:57:07: Ich finde es interessant, wenn man eine Webseite besucht, man hat ja dann rechts daneben quasi immer den Chat-TBT-Assistenten, mit dem ich dann über das, was ich jetzt gerade auf der Seite sehe, sozusagen auch interagieren und diskutieren kann.

00:57:23: Und wenn ich jetzt zum Beispiel irgendwie auf einer Webseite bin, wo ich mich nicht so gut auskenne und Sachen nicht finde, zum Beispiel in Atlas zu benutzen, um zu sagen, okay, hilf mir mal, hier diese Seite zu navigieren.

00:57:34: Also ich hätte zum Beispiel neulich so eine krasse Legacy-Software, wo ich, also das ist irgendwie ein Programm, das von der Regierung auch angeboten wird.

00:57:43: Dementsprechend sieht das auch aus und es ist wirklich so, oh mein Gott.

00:57:47: Also User Experience war definitiv nicht mit im Kopf, als wir das gebaut haben vor zwanzig Jahren oder so.

00:57:56: Und da habe ich dann wirklich auch diesen Browser einfach benutzt, um mir da durchzuhelfen.

00:58:00: Und das war eigentlich ziemlich cool, weil das dann auch irgendwo interpretieren konnte, was es halt sieht und was ich jetzt vielleicht den einen Button, den ich nicht finde.

00:58:11: Genau, und dafür für solche Sachen ist es super geeignet, wenn ich halt irgendwie auf irgendwelche sensiven Daten zugreifen will, auch irgendwelche internen Programme, wo wir unsere Lerner verwalten oder so würde ich niemals im Moment irgendwie in Atlas öffnen, weil das halt einfach direkt dann bei Open AI landet.

00:58:33: Also von dem her... Ist cool, wenn man Lust um Zeit hat, uns mal auszuprobieren und so, lazt ihr runter, nutzt, findet mal raus, wie so vielleicht auch die Zukunft des Webs und der Web-Nutzung dann sein wird und welche Richtung es geht.

00:58:47: Aber sehr zu für den Alltag.

00:58:49: Und ich finde immer so Browser umziehen, wenn man dann auch sagt, ich mach das als mein Standard-Browser oder so.

00:58:54: Also Browser umziehen ist ja mittlerweile fast so kompliziert wie Wohnungsumzüge, weil man muss erstmal alles mitnehmen und die ganzen Logins und das alles, um sich das alles wieder so hingerichtet hat, dass das funktioniert für ein und das Leben das irgendwie leichter macht und nicht komplizierter, ist ja wirklich mühselig sozusagen.

00:59:13: Also von dem her würde ich da jetzt noch davon abgesehen, das Ding als mein default Browser zu definieren und dann loszulegen.

00:59:19: Aber ein bisschen rumspielen kann man schon mal damit.

00:59:22: Unbedingt, macht Spaß.

00:59:23: Das ist einfach irgendwie cool, macht Spaß.

00:59:25: Und diese eine Use Case so leite mich durch diese komplizierte Seite, die ich selber nicht capiere.

00:59:30: Super, genau.

00:59:32: Wir haben es geschafft.

00:59:34: Wir sind jetzt, also du bist sowieso schon Chat-Bt-Expertin.

00:59:38: Ich bin jetzt aber auch eine.

00:59:39: Ich fühle mich gut.

00:59:41: Sehr schön.

00:59:42: Das war das Ziel.

00:59:43: So, jetzt

00:59:45: haben wir alles gelernt, wie man iterativ prompted, wie man Projekte aufsetzt, wie man Canvas benutzt in Study Mode, den Memory Mode, wie man... das Gedächtnis löschen kann und und und und und.

00:59:58: Das Gute ist, dass ihr euch das jetzt nicht alles tatsächlich merken müsst.

01:00:02: Also wir haben euch das in die Shownotes gepackt, die einzelnen Punkte.

01:00:06: Und was ich auch mal noch ganz wichtig finde, ist, dass man auch das nicht alles auf einmal umsetzen muss.

01:00:12: Also ich kenne das teilweise manchmal von mir, wenn ich zu anderen Themen oder auch zu Podcast Themen, zu KI-Themen, Podcasts höre.

01:00:20: Dass ich mich mal ein bisschen überwältigt fühle, weil ich denke, ja, ja, das sind jetzt auch noch alles Punkte, die man anscheinend kennen muss.

01:00:26: Und das nennt man ja dieses Paralyzes, AI Paralyzes.

01:00:31: Ich glaube, das kennt aber jeder.

01:00:32: Das kennst du doch auch, oder Nadine?

01:00:34: So als absoluter Profi, der auch immer Wissen vermittelt.

01:00:38: Man hat immer das Gefühl, man kommt irgendwie nicht mehr hinterher, ne?

01:00:44: Also mein ProTap, was das angeht und ich den noch mitwerfen darf, ist wirklich seinen Bereich zu finden.

01:00:52: Weil, was wir natürlich durch diese TrainingsTV anbieten, da haben die Leute halt einfach mal, sag ich mal, einen geschützten Raum für vier Wochen alles mal auszuprobieren.

01:01:00: Und dann kommt dieses so, oh mein Gott, ich kann ja Bilder und Videos und dies und das und jenes.

01:01:05: Das ist ja gar nicht das Ziel, das Ziel ist, alles mal anzugucken zu wissen, okay, wo stehen wir denn gerade, was habe ich für Möglichkeiten, wo kann ich mich weiterhin informieren und up to date bleiben.

01:01:14: Und dann aber, mein Thema rauszupicken zu sagen, ich arbeite jetzt eben im Bereich... Software development oder ich arbeite oder ich bin kreativ unterwegs oder so und diesen Bereich ganz konkret dann eben für sich weiterzuentwickeln da in diesem kleinen definierten Bereich dran zu bleiben an die neuesten Entwicklungen das glaube ich das was wichtig ist und weniger es mehr auch wirklich einfach mal Dinge weglassen sagen das ist jetzt irgendwie cool zu wissen und vielleicht brauche ich es in vier Monaten nochmal weil mir dann wieder der podcast in Erinnerung kommt und dachte da ging doch irgendwie was gucke ich mal ob ich das jetzt wieder finde in churchie bt.

01:01:49: Aber ich glaube, so hier raus zu gehen und zu sagen, ich muss jetzt alles mitnehmen und ich muss alles ausprobieren.

01:01:55: Wenn du die Zeit hast oder so klar, probier es.

01:01:58: Wenn nicht, dann ist es einfach was, was einem im Kopf bleibt und wo man dann vielleicht, wenn man an einem Problem ranläuft und sagt, eben, ich finde die Geschichte super, aber ich würde jetzt eigentlich ganz gerne wollen, dass ich nur diesen einen Absatz zum Beispiel verändern kann.

01:02:10: Dann weißt du jetzt, okay, da gibt es halt diesen Canvas-Mod und dann ist es relevant.

01:02:14: Genau.

01:02:14: Ich finde auch manchmal, das ist auch vielleicht als zielreich, das sagt ich mir manchmal, wenn ich nur eine Sache davon mitgenommen habe, dann habe ich ja schon eine kleine Sache dazu gelernt.

01:02:26: Und dann hat es ja auch schon das gehabt, also die Wirkung gehabt, die man haben wollte.

01:02:30: Genau.

01:02:31: Also es geht ja auch um die Inspiration.

01:02:34: Also diese Kombination von ich lerne Neues Wissen und irgendwas inspiriert mich, um über Dinge, die mich gerade beschäftigen, vielleicht auch nochmal anders nachzudenken.

01:02:43: Deswegen hört man ja Podcast.

01:02:44: Also deswegen will ich sie.

01:02:45: Nadine, es war wirklich ein ganz tolles Gespräch.

01:02:47: Wir haben über eine Stunde gesprochen, aber das kam hier vor wie zwanzig Minuten.

01:02:51: Vielen, vielen, vielen Dank.

01:02:52: Sehr gerne.

01:02:53: Dann ihr noch einen schönen Tag und deinen Hörerinnen

01:02:55: auch.

01:02:56: Ja, genau.

01:02:56: Und euch auch vielen, vielen Dank fürs Zuhören.

01:03:00: Ich hoffe, ihr werdet Spaß haben beim Ausprobieren, beim Gucken welcher Tipp davon vielleicht euch am meisten hilft und am meisten liegt.

01:03:07: Ich freue mich ganz doll, wenn ihr uns zur Folge ein Like hinterlasst, vielleicht auch in den Kommentaren aufschreibt, welche Punkte ihr richtig gut fandet oder was euch vielleicht auch gefehlt hat.

01:03:17: Wenn ihr wollt, dann sehen wir uns in der nächsten Folge wieder.

01:03:20: Ich wünsche euch bis dann eine gute Zeit und bis bald.

01:03:24: Tschüss!

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.