Die Sache mit der KI ist offenbar noch nicht ganz so bedrohlich wie manche denken.
Bisher bin ich beispielsweise von Googles "Gemini" alles andere als beeindruckt. Zwei Versuche, zwei Nieten.
Im ersten Versuch verweigert "Gemini" die Arbeit quasi komplett, mit der Begründung dabei Fehler machen zu können.
"ChatGPT" liefert hier sofort Ergebnisse und gibt dafür auch Quellen an, wobei ich weder die Quellen, noch die Ergebnisse überprüft habe.
Im zweiten Versuch ist die Antwort von "ChatGPT", auf die Frage mit dem Elefanten zwar anscheinend inkorrekt (Wikipedia gibt hier "Ekimas & Kathrin Schröter" an) aber immerhin wurde verstanden, was ich möchte.
"Gemini" versteht hier offenbar nicht einmal mein Anliegen. Noch dazu verweist es beim Versuch meine Anfrage zu bearbeiten auf das hauseigene YT Music (das ich deaktiviert habe), statt mir für den Vorgang den Streaming-Dienst vorzuschlagen, den ich tatsächlich nutze.
Ich bin kein Fan davon, Sprachmodelle als Suchmaschinen zu verwenden. Im ersten Beispiel fragst du nach dem Alter einer Person und eine der Quellen ist AskAstrology?
Was aber sehr gut geht ist korrekturlesen, übersetzen, umschreiben etc. - und dafür finde ich sie gerade im beruflichen Kontext sehr praktisch.
Aber wenn bzw. solange ich nach dem Korrekturlesen des LLM nochmal Korrektur lesen muss um sicher zu gehen, dass es auch keinen groben Fehler beim Korrekturlesen / Übersetzen / Umschreiben / Zusammenfassen etc. gemacht hat, ist das dann nicht ein bisschen für die Katz?
Ich kommuniziere viel schriftlich in der Arbeit. Dazu kopiere ich einen Absatz rein, frage „wie kann dieser text verbessert werden“ und habe dann ein paar Vorschläge, die ich umsetzen kann. Natürlich könnte ich auch einen Kollegen befragen, aber mit Chatbot ist es schneller.
Vielleicht fehlt mir da einfach der passende Anwendungsfall. Ich könnte mir vorstellen, dass ich während des Studiums ganz gut Verwendung dafür gehabt hätte. Aber das war noch vor den LLMs.