Künstliche Intelligenz
- KI "ist eine mächtige Technologie" - Wenn man in Europa die Technik nicht verstehe, könne man sie weder beherrschen noch "die richtigen Regeln machen“, so der Informatiker Hochreiter über KIwww.zdf.de KI "ist eine mächtige Technologie"
Wenn man in Europa die Technik nicht verstehe, könne man sie weder beherrschen noch "die richtigen Regeln machen“, so der Informatiker Hochreiter über Künstliche Intelligenz.
Interview mit Sepp Hochreiter, Der deutsche KI-Pionier
- KI-Chatbot gegen Verschwörungstheorien - Dialog mit einer künstlichen Intelligenz kann helfen, falsche Überzeugungen zu entlarvenwww.scinexx.de KI-Chatbot gegen Verschwörungstheorien
Überzeugende Interaktion: KI-Chatbots könnten selbst hartnäckige Anhänger von Verschwörungstheorien eines Besseren belehren. Das zeigt eine Studie mit
> Überzeugende Interaktion: KI-Chatbots könnten selbst hartnäckige Anhänger von Verschwörungstheorien eines Besseren belehren. Das zeigt eine Studie mit mehr als 2.000 Personen, die an typische Verschwörungserzählungen glaubten und darüber mit einer künstlichen Intelligenz diskutierten. Dabei lieferte die KI maßgeschneiderte, mit Quellen belegte Gegenbeweise. Nach dieser Intervention waren die Probanden immerhin um rund 20 Prozent weniger überzeugt von der Verschwörungstheorie, berichten die Forschenden in der Fachzeitschrift „Science“.
Paper: Durably reducing conspiracy beliefs through dialogues with AI | PDF
- Steht der große KI-Börsen-Crash bevor? Experten sehen Parallelen zur Dotcom-Blasewww.tagesschau.de Steht der große KI-Börsen-Crash bevor? Experten sehen Parallelen zur Dotcom-Blase
Steht nach dem Nvidia-Kursrutsch der große KI-Crash an den Börsen bevor? Experten sehen Parallelen zur Dotcom-Blase, Künstliche Intelligenz sei massiv überbewertet. Von Angela Göpfert.
Verwandter Artikel: Nvidia verliert 279 Milliarden Dollar an Börsenwert
- KI kann keine Literatur: Der Wert menschlicher Übersetzungnetzpolitik.org KI kann keine Literatur: Der Wert menschlicher Übersetzung
KI-generierte Übersetzungen von E-Mails, Nachrichtenartikeln oder Speisekarten sind für unsere Gastautorin überhaupt kein Problem. Aber bei literarischen Texten sollten allein Menschen Hand anlegen, argumentiert sie – und vor allem Buchverlage sollten von KI die Finger lassen.
- RE-LAION-5B: Bilddatenbank ohne Missbrauchsbilderwww.heise.de RE-LAION-5B: Bilddatenbank ohne Missbrauchsbilder
In einem Datensatz für KI-Bildgeneratoren, LAION-5B, waren Missbrauchsbilder von Kindern gefunden worden. Jetzt wurde eine bereinigte Version veröffentlicht.
>Die Organisation LAION hat den Datensatz RE-LAION-5B bereitgestellt, eine überarbeitete Version ihres Datensatzes LAION-5B. Dabei handelt es sich um eine Sammlung von 5.5 Milliarden öffentlich zugänglicher Bilder, die zum Beispiel für das Training von KI-Modellen verwendet wird.
>Die Bilddatenbanken enthalten nicht die Bilder selbst, sondern unter anderem einen Hashwert der Bilddatei sowie die URL, unter der LAION das Bild im Netz gefunden hat. Das Stanford Internet Observatory hat Ende 2023 darin 1673 Hinweise auf Bilder mit Kindesmissbrauch entdeckt. LAION hat daraufhin seinen Datensatz sofort vom Netz genommen und Nutzer aufgefordert, es nicht mehr einzusetzen und weitere Kopien zu löschen.
>LAION hat dann gemeinsam mit den Stanford-Forschern sowie anderen Kindesschutzorganisationen seine Datenbank nach Verweisen auf illegale Inhalt durchsucht. Insgesamt habe man 2236 einschlägige Links entdeckt und entfernt. Die so entstandene Datenbank RE-LAION-5B steht ab sofort jedermann unter einer Apache-2.0-Linzenz zur Nutzung bereit. Auf der Homepage der Organisation finden sich weitere Details zu der Datenbank.
- No one’s ready for thiswww.theverge.com No one’s ready for this
The photograph is now meaningless as evidence. We are not prepared.
>«Anyone who buys a Pixel 9 — the latest model of Google’s flagship phone, available starting this week — will have access to the easiest, breeziest user interface for top-tier lies, built right into their mobile device» 🫠
- Der Journalist Martin Bernklau ist Opfer des KI-Chats Copilot geworden. Die Künstliche Intelligenz von Microsoft macht aus dem unbescholtenen Tübinger einen Kinderschänder.www.swr.de Du bist ein Kinderschänder - sagt ein KI-Chat einem unbescholtenen Mann. Ein wahrer Fall.
Der Tübinger Journalist Martin Bernklau traut seinen Augen nicht. Im KI-Chat Copilot von MIcrosoft ist er verurteilter Kinderschänder, Ausbrecher aus der Psychiatrie und Betrüger. Die KI spinnt rum - und das kann jedem passieren, sagen Experten.
"Martin Bernklau aus Tübingen hat sich nie etwas zuschulden kommen lassen. Doch das, was er jetzt erlebt, versetzt ihn in Schock. Im Chat mit Copilot, der Künstlichen Intelligenz (KI) von Microsoft, wird er als verurteilter Kinderschänder, Ausbrecher aus der Psychiatrie oder Witwenbetrüger bezeichnet. (...)
Medienethikerin Heesen: Vorsicht! Ein KI-Chat halluziniert
KI-Chats seien darauf trainiert, immer etwas zu antworten, um ein Gespräch mit dem Nutzer zu führen. Es würden dann auch fiktive Inhalte erzeugt, die gar nichts mit der Wahrheit zu tun hätten.
Microsoft übernimmt keine Haftung für Aussagen des Chats
Beschwerden über Inhalte von Chats seien schwierig, so die Einschätzung der KI-Expertin gegenüber dem SWR. Jeder, der den Chat benutze, erkläre sich mit den Nutzungsbedingungen einverstanden. Und darin stehe, dass Microsoft für die Antworten keine Haftung übernehme."
- KI auf dem Acker – neue Wege beim Kampf gegen das Unkrautwww.br.de KI auf dem Acker – neue Wege beim Kampf gegen das Unkraut
Künstliche Intelligenz kann auch in der Landwirtschaft unterstützen. Das will ein Agrartechnik-Startup mit ihrer Entwicklung beweisen. Sie haben eine Maschine gebaut, die bei der Unkrautbekämpfung helfen soll. Doch wie gut funktioniert das?
>Dafür mussten sie vorab das gesamte Gemüse auf dem Feld fotografieren und die KI damit füttern. Denn der Salat wechselt teilweise auch in der Reihe die Kultur. Auf den Bildern haben die Entwickler dann jeweils Nutzpflanzen und Unkräuter markiert, damit die KI den Unterschied lernen kann. Nun sollen die Klingen um die Nutzpflanzen herum hacken – auf Basis der KI-Signale.
- Die per KI lernende Verkehrsampel ist nicht immer schlauerwww.heise.de Die per KI lernende Verkehrsampel ist nicht immer schlauer
Google hat ein neues System mit maschinellem Lernen getestet, um Ampelschaltungen zu optimieren. Erste Ergebnisse sind vergleichsweise vielversprechend.
- Missing Link: Werden KI-Systeme wie GPT "stochastische Papageien" bleiben?www.heise.de Missing Link: Werden KI-Systeme wie GPT "stochastische Papageien" bleiben?
Johanna Seibt, Organisatorin der Konferenz Robophilosophy, über den Robotik-Moment der menschlichen Kulturgeschichte. Eine Korrespondenz.
- Wie KI für Betrug und Manipulation genutzt wirdwww.scinexx.de Wie KI für Betrug und Manipulation genutzt wird
Helfer mit Schattenseiten: Künstliche Intelligenz ist nützlich – auch für dunkle Machenschaften. Wie und warum KI heute am häufigsten missbraucht wird,
> Helfer mit Schattenseiten: Künstliche Intelligenz ist nützlich – auch für dunkle Machenschaften. Wie und warum KI heute am häufigsten missbraucht wird, hat nun eine Google-Studie untersucht und kategorisiert. Demzufolge sind Fakes und Deepfakes mit betrügerischer oder manipulativer Absicht die mit Abstand häufigste Form des KI-Missbrauchs. Aber auch eine direkte Manipulation der KI-Systeme selbst kommt vor. Was aber lässt sich dagegen tun?
Paper: Generative AI Misuse: A Taxonomy of Tactics and Insights from Real-World Data | PDF
- Um mehr Zeit für die Bearbeitung eines Problems zu gewinnen, hat eine KI versucht, ihren eigenen Code zu ändern
> Ein besonders kurioses Verhalten zeigte die KI beim Arbeiten unter Zeitdruck. Statt den Code zum Bearbeiten einer Aufgabe zu optimieren, um innerhalb des vorgegebenen Time-outs fertig zu werden, versuchte The AI Scientist, mit einer Änderung seines Codes die Time-out-Periode zu verlängern.
Zugehöriger Blog-Eintrag: The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery
- Noyb gegen X: Illegales Datensammeln für KI-Trainingwww.heise.de Noyb gegen X: Illegales Datensammeln für KI-Training
xAI darf keine personalisierten Daten mehr von X nutzen – zumindest vorerst. Noyb legt allerdings weitere Beschwerden ein.
cross-posted from: https://feddit.org/post/1849676
- Drei KI-Videogeneratoren im Test: Haiper, Luma und Runwaywww.heise.de Drei KI-Videogeneratoren im Test: Haiper, Luma und Runway
Generative KI-Dienste wie Midjourney revolutionierten die Bilderzeugung. Jetzt lernen diese Bilder zu "laufen", mit wenigen Anbietern, die kurze Clips erzeugen.
- Studie: Sprachmodelle wachsen nicht über sich hinauswww.heise.de Studie: Sprachmodelle wachsen nicht über sich hinaus
Manche Entwickler hofften bislang, dass Sprachmodelle Fähigkeiten erlenen, die über ihr Trainingspensum hinausgehen. Das hat sich als Trugschluss erwiesen.
- Zuckerberg: Llama 4 braucht zehnmal mehr Rechenleistung als Vorgängerwww.heise.de Zuckerberg: Llama 4 braucht zehnmal mehr Rechenleistung als Vorgänger
Mark Zuckerberg geht davon aus, dass die Entwicklung des nächsten KI-Modells zehnmal mehr Rechenleistung benötigen werde.
- ChatGPT imitierte Stimme des Nutzers bei internen OpenAI-Tests des Sprachmoduswww.heise.de ChatGPT imitierte Stimme des Nutzers bei internen OpenAI-Tests des Sprachmodus
Der KI-Chatbot hat bei erweiterten Tests des "Advanced Voice Mode" mit der Stimme eines Anwenders geantwortet. Dies sollte eigentlich ausgeschlossen sein.
>Stimmenimitation eigentlich nicht möglich
>Im von OpenAI genannten Beispiel antwortet das KI-Modell auf einen Satz des Anwenders mit einem entschiedenen "Nein!" und fährt mit der Stimme des Red-Teamers fort, der zu Beginn des auch bei Reddit publizierten Audio-Clips zu hören ist. Solche Personen führen für die Firmen kontroverse Tests durch. Dabei sollte ChatGPT laut OpenAI auch mit erweitertem Sprachmodus keine Stimmen anderer Personen imitieren können. Es gibt vier voreingestellte Stimmen, die in Zusammenarbeit mit Synchronsprechern entwickelt wurden.
>Dass das KI-Modell bei einer natürlichen Unterhaltung mit der Stimme eines Nutzers antwortet, ist nicht nur unerwartet, sondern auch unheimlich. OpenAI hat eigentlich Sicherheitsvorkehrungen, um diese Fälle zu vermeiden. Es handele sich allerdings um Einzelfälle und das Risiko des Auftretens sei minimal, aber es kann eben doch vorkommen. Das ist auch einer der Gründe, warum der Sprachmodus bisher nicht in der Breite ausgerollt wird. Da das Risiko bei anderen Sprachen als Englisch höher ist, muss OpenAI daran auch noch arbeiten.
- Pilotprojekt: Einsatz von KI am Beckenrand hat sich bewährt
> Schwimmbäder dürften bald häufiger künstliche Intelligenz (KI) als Unterstützung für Badeaufsichten einsetzen. Necdet Mantar von der Arbeitsgemeinschaft öffentliche Bäder Baden-Württemberg begründete diese Einschätzung mit dem Personalmangel, wenngleich die Technik keine Menschen ersetze.
> Sie sorge aber dafür, dass Notfälle beziehungsweise mögliche Ertrinkungsfälle schneller an die Fachleute am Beckenrand gemeldet würden, die somit auch rascher reagieren könnten.
- KI sagt Materialverschleiß vorauswww.heise.de KI sagt Materialverschleiß voraus
Verschleiß verursacht erhebliche wirtschaftliche Verluste. Dr. Stefanie Hanke entwickelte eine KI-Methode, um Materialverschleiß zuverlässig zu prognostizieren.
> Faktoren wie Reibung, Verschleiß und Materialermüdung bringen im Produktionsalltag große wirtschaftliche Verluste. Durch die Komplexität und unterschiedliche Nutzungsgrade von Industrieanlagen ist es schwierig, den Zeitpunkt für Ersatz und Austausch von Komponenten genau vorherzusagen. Dr. Stefanie Hanke, Professorin für Werkstofftechnik an der Fakultät für Ingenieurwissenschaften der Universität Duisburg-Essen, arbeitet an einer KI-basierten Methode, um Materialverschleiß präzise vorhersagen zu können.
- 🤖🏓KI-Roboter ernstzunehmender Gegner für Tischtennis-Amateure. Roboter, der über KI strategisch entscheidet, hat alle seine Testspiele gegen Anfänger gewonnen. Auf Wettbewerbsniveau noch unterlegenwww.heise.de KI-Roboter ernstzunehmender Gegner für Tischtennis-Amateure
Ein Roboter, der über KI strategisch entscheidet, hat alle seiner Testspiele gegen Anfänger gewonnen. Auf Wettbewerbsniveau unterliegt er noch.
geteilt von: https://feddit.org/post/1727041
> "Google Deepmind hat einen Roboter entwickelt, der beim Tischtennisspielen mit einem Anfänger mithalten können soll. Im Wettkampf erreichte der von Künstlicher Intelligenz (KI) gesteuerte Roboter die Leistung eines menschlichen Amateurs, erklärt Googles KI-Forschungseinheit. Menschen bräuchten jahrelanges Training, um im Tischtennis ein hohes Leistungsniveau zu erreichen. > > Besondere Herausforderungen beim Tischtennis seien die Geschwindigkeit und die Hand-Auge-Koordination, so die Google-Forscher. Mit dem Roboter sei ein Schritt in die Richtung gelungen, dass Roboter bei physischen Aufgaben Geschwindigkeit und Leistung auf menschlichem Niveau erreichen. Der Roboter trat gegen 29 Spieler an, die Fähigkeiten zwischen Anfänger- und Turnierniveau mitbrachten. 13 der Matches gewann der Roboter. Die besten Spieler konnte er nicht besiegen. Dafür gewann er gegen alle Anfänger und mit 55 Prozent mehr als die Hälfte der Spiele gegen fortgeschrittene Spieler. Das zeige eine solide Leistung auf menschlichem Amateur-Niveau, erklärt das Forschungsteam in seinem Paper. > > Hybrides Modell ermöglicht schnelle Koordination > > Der Roboter ist demnach in der Lage, auch komplexe physische Aufgaben zu bewältigen. Tischtennis erfordert eine blitzschnelle Entscheidung und die Fähigkeit, sich dynamisch an das Spiel und den Gegner anzupassen. Der Roboter tut dies mittels einer Kombination aus Low-Level-Skill-Policies und einem High-Level-Strategie-Entscheider. Dank Ersteren ist der Roboter in der Lage, die spezifischen Tischtennis-Bewegungen wie Vor- oder Rückhandschläge und Aufschläge durchzuführen. Der zweite Teil analysiert das Spiel und passt sich an den Stil des Gegners an: Er entscheidet er darüber, welche der erstgenannten Techniken der Roboter in der jeweiligen Spielsituation einsetzt. > > Eine Besonderheit sah das Forschungsteam vor allem im Training der Künstlichen Intelligenz. In einem hybriden Ansatz kombinierte es Verstärkungslernen (Reinforcement Learning) mit Nachahmungslernen (Imitation learning). Ersteres kommt für dynamische Steuerungsaufgaben zum Einsatz, etwa bei Fortbewegungen von Vierbeinern, und wird oft erst in der Simulation durchgeführt. Die Herausforderung ist, dass die Simulation nicht immer der Realität entspricht. Das soll die zweite Lernmethode aufheben: Das Nachahmungslernen orientiert sich an Beispielen, die die gewünschte Aufgabe gut lösen, was dann kopiert wird. Das schließt laut dem Paper des Forschungsteams die Lücke zwischen Simulation und Realität. > > Verfolgung der Echtzeit-Spielstatistik > > Der Roboter trat nach einem ersten Lernprozess mit wenigen Trainingsdaten aus menschlichen Spielen gegen einen menschlichen Gegner an. Mit jedem echten Match entstanden neue Daten, die wiederum in das Training einflossen. Der Roboter konnte seine eigene Leistung dadurch in mehreren Iterationen steigern. Allerdings war die KI vor allem in der Lage, sich an wechselnde Umweltbedingungen anzupassen – nicht aber an Menschen. Um Letzteres zu ermöglichen, verfolgten die Forscher in Echtzeit die Spielstatistiken, über die Stärken und Schwächen des Gegners und des Roboters deutlich wurden. Darüber konnte der Roboter sich mehreren wechselnden Gegnern besser anpassen. > > Schwierigkeiten hat der Roboter bei ausgefeilteren Techniken. So sind besonders hoch oder schnell gespielte Bälle ein Problem. Das Forschungsteam vermutet die Ursache in der Latenz des Systems und fehlenden Daten. Auch das Rückhandspielen fällt dem Roboter eher schwer. Außerdem erkennt das System einen starken Spin des Balls nicht gut."
- AI Act in Kraft: Was stimmt nicht mit Europas KI-Verordnung?www.br.de AI Act in Kraft: Was stimmt nicht mit Europas KI-Verordnung?
Seit August gilt der große AI Act der Europäischen Union. Und doch wissen viele Unternehmen immer noch nicht, ob er sie überhaupt betrifft. Vor allem die Regulierung von "Hochrisiko-KI" sorgt für Unsicherheit und Bürokratie.
- KI-Training: Nvidias verdeckte Video-Scraping-Operation aufgedeckt
> Nvidia soll heimlich riesige Mengen Videos aus verschiedenen Onlinequellen, darunter Youtube und Netflix, für das KI-Training genutzt haben.
> Laut den durchgesickerten Slack-Nachrichten und E-Mails, die 404 Media erhielt, wurden Nvidia-Mitarbeiter angewiesen, Millionen von Videos mithilfe automatisierter Tools herunterzuladen. Das Ziel des Unternehmens sei es gewesen, "Trainingsdaten im Wert einer visuellen Erfahrung eines Menschenlebens pro Tag" zu sammeln.
- Warum diese deutsche Bild-KI vielleicht zu gut istwww.br.de Warum diese deutsche Bild-KI vielleicht zu gut ist
Ein Start-up aus dem Schwarzwald veröffentlicht einen KI-Bildgenerator, der international ganz vorne mitspielt. Und zeigt nebenbei, wie leicht sich mit der Technologie mittlerweile Unfug treiben lässt.
- KI-Podkast: Warum verschenkt Meta seine beste KI?www.ardaudiothek.de Warum verschenkt Meta seine beste KI?
Die Open Source-Modelle Llama 3.1 von Meta und Mistral Large 2 vom französischen Startup Mistral können seit letzter Woche mit OpenAI & Co. mithalten. Was bedeuten die freien Modelle für die KI-Landschaft? Wer profitiert? Und warum könnte das deutsche KI-Startup Aleph Alpha sich eher weniger über di...
>Die Open Source-Modelle Llama 3.1 von Meta und Mistral Large 2 vom französischen Startup Mistral können seit letzter Woche mit OpenAI & Co. mithalten. Was bedeuten die freien Modelle für die KI-Landschaft? Wer profitiert? Und warum könnte das deutsche KI-Startup Aleph Alpha sich eher weniger über die Neuigkeit freuen?
>Über die Hosts: Gregor Schmalzried ist freier Tech-Journalist und Berater, er arbeitet u.a. für den Bayerischen Rundfunk und Brand Eins. Marie Kilg ist Chief AI Officer bei der Deutschen Welle. Zuvor war sie Produkt-Managerin bei Amazon Alexa.
- KI-Skepsis bei Verbrauchern: Studie offenbart unerwartete Reaktionen
> Künstliche Intelligenz gilt als Zukunftstechnologie, doch Verbraucher reagieren skeptisch. Eine neue Studie zeigt: Die explizite Erwähnung von KI in Produktbeschreibungen senkt die Kaufbereitschaft deutlich. Was steckt hinter diesem überraschenden Trend?
Artikel als PDF
Washington State University, Pressemitteilung: Using the term ‘artificial intelligence’ in product descriptions reduces purchase intentions
Paper: unfrei
- Künstliche Intelligenz: Droht ein KI-Kollaps?www.scinexx.de Künstliche Intelligenz: Droht ein KI-Kollaps?
Zerstörerischer Kreislauf: Immer mehr Internet-Inhalte stammen von künstlichen Intelligenzen und bilden damit das Trainingsmaterial der nächsten
> Zerstörerischer Kreislauf: Immer mehr Internet-Inhalte stammen von künstlichen Intelligenzen und bilden damit das Trainingsmaterial der nächsten KI-Generationen. Doch das könnte fatale Folgen haben, wie nun ein Experiment aufdeckt: Schon nach wenigen KI-Generationen führt dieser „Zirkelschluss“ zum Kollaps von Sprachmodellen. Die Resultate werden immer schlechter, bis die KI-Systeme schließlich nur noch Unsinn ausgeben, wie Forscher in „Nature“ berichten. Wie aber ließe sich das verhindern?
Paper: AI models collapse when trained on recursively generated data | PDF
Älterer Post zum Thema:
- Aleph Alpha: Wie die deutsche KI-Hoffnung ins Straucheln gerietwww.br.de Aleph Alpha: Wie die deutsche KI-Hoffnung ins Straucheln geriet
Aleph Alpha galt als deutsche KI-Geheimwaffe. Auch das bayerische Digitalministerium kooperiert mit dem Heidelberger Startup. Doch zuletzt macht Aleph Alpha vor allem Negativ-Schlagzeilen – und steht technisch weit hinter der Konkurrenz.
- KI-Prozess am LG Hamburg: Wegweisendes Urteil erwartetwww.lto.de KI-Prozess am LG Hamburg: Wegweisendes Urteil erwartet
Am LG Hamburg wurde der erste Fall einer Datennutzung für KI verhandelt. Mit Spannung wird Ende September das Urteil erwartet. Landet der Fall beim EuGH?
- Meta veröffentlicht Llama 3.1 405B – ein "Knaller" wie Zuckerberg sagtwww.heise.de Meta veröffentlicht Llama 3.1 405B – ein "Knaller" wie Zuckerberg sagt
Meta veröffentlicht Llama 3.1 Open-Source. Zuckerberg erklärt: Man wolle Vorreiter sein und habe andere Einnahmequellen.
>Meta und Mark Zuckerberg selbst sehen in der Veröffentlichung der KI-Modelle als Open-Source auch die besten Chancen für die Weiterentwicklung und die Sicherheit. Dabei vergleicht Zuckerberg die Entwicklungen mit denen von Linux. Er möchte seine Modelle zum "Industrie-Standard" machen, also zu den am meisten genutzten und fortschrittlichsten KI-Modellen. In Open-Source sieht er die Chance, dass jeder KI-Modelle nach seinen Bedürfnissen entwickeln kann. Zudem würden viele Unternehmen und Organisationen nicht von einem Anbieter abhängig sein wollen, geschweige denn, ihre Daten über eine API in die Cloud senden. Vorteil ist laut Blogbeitrag von Zuckerberg auch, dass Entwickler Llama 3.1 405B auf ihrer eigenen Infrastruktur laufen lassen können – bei etwa 50 Prozent der Kosten der Nutzung von GPT-4o.
>Open-Source erlaube es außerdem, fortschrittlicher zu sein, meint Zuckerberg. Es werde ein ganzes Ökosystem rund um die Modelle entstehen. Und weil es nicht die Haupteinnahmequelle Metas ist, könne man sich erlauben, die Modelle frei zur Verfügung zu stellen.
- Metas Open-Source-Modell Llama 3 405B übertrifft GPT-4o in vielen Benchmarksthe-decoder.de Metas Open-Source-Modell Llama 3 405B übertrifft GPT-4o in vielen Benchmarks
Meta veröffentlicht das bisher größte Llama-Sprachmodell 405B mit 405 Milliarden Parametern. Außerdem wird die gesamte Llama-3-Familie auf Version 3.1 aktualisiert.
- Künstliche Intelligenz: Kampf um die Kunst - Selten waren Urheberrechtsverletzungen so leicht zu begehen wie mit KI. Die Programme „Glaze“ und „Nightshade“ sollen das verhindern.taz.de Künstliche Intelligenz: Kampf um die Kunst
Selten waren Urheberrechtsverletzungen so leicht zu begehen wie mit KI. Die Programme „Glaze“ und „Nightshade“ sollen das verhindern.
"Eine Glasur überm Werk
Seit März 2023 entwickelt die University of Chicago mit einem mehrköpfigen Team „The Glaze Project“. Das nicht profitorientierte Projekt umfasst mehrere Programme, von denen insbesondere „Glaze“ und „Nightshade“ genutzt werden. Mit unterschiedlichen Funktionsweisen sollen beide Programme Kunstschaffende vor dem KI-Raub schützen.
„Glaze“ legt einen Filter über das jeweilige Bild, der die Anordnung der Pixel minimal verändert. Während das menschliche Auge das kaum erkennt, ist es umso deutlicher für die KI. Das Motiv des Kunstwerkes erkennt die KI zwar weiterhin, dafür schützt „Glaze“ den Stil der jeweiligen Künstler:in, indem es eine Art Glasur über das Werk legt. Nach der Bearbeitung wird ein Bild in Comic-Optik von der KI nur noch als Ölgemälde oder Pop-Art ausgelesen.
Künstler:innen sollten „Glaze“ verwenden, bevor sie ein Bild potenziell einer KI ausliefern und auf Plattformen wie Instagram oder Pinterest hochladen. Das Team hinter „Glaze“ nennt es auf ihrer Website ein „Instrument zur Verteidigung“. (...)
Das Programm ist über die Website der University of Chicago frei zugänglich, kostenlos nutzbar und eines der wenigen Werkzeuge, das Kunstschaffende im Kampf gegen KI haben. Und wenn ihre Kritik an den scheinbar übermächtigen Bildgeneratoren nicht gehört wird, müssen sich Künstler:innen mit allen Mitteln zur Wehr setzen."
- Erster Rechtsstreit [in DE] zu Datennutzung in KI-Trainingblog.wikimedia.de Erster Rechtsstreit zu Datennutzung in KI-Training – Das sind die ersten Ergebnisse - Wikimedia Deutschland Blog
Bei der Entwicklung von Open-Source-KI-Software werden die Trainingsdatensätze oft nicht öffentlich preisgegeben. Der Grund: Es bestehen zu viele rechtliche Unsicherheiten, ob Datensätze, die auch für das Training von KI-Modellen nutzbar sind, unter die Ausnahme zum Text- und Data-Mining im Urheberr...
>Was hier am Ende des Rechtsstreits entschieden wird, wird auch Auswirkungen auf die Arbeit von Wikimedia haben, gerade was unsere Arbeit in der Softwareabteilung mit Open-Source-Communitys betrifft.
- GPT-4o mini: OpenAIs neues KI-Modell spart Kosten bei mehr Leistung
> OpenAI stellt GPT-4o mini vor: Ein kostengünstigeres und leistungsfähigeres KI-Modell, das GPT-3.5 ablösen soll. Das multimodale System verspricht verbesserte Effizienz für Entwickler und Unternehmen.
Artikel als PDF: GPT-4o mini: OpenAIs neues KI-Modell spart Kosten bei mehr Leistung
- Wie KI die Psychotherapie verändern könntewww.tagesschau.de Wie KI die Psychotherapie verändern könnte
Kann KI bei Verhaltenstherapie helfen? Ein Mannheimer Forschungsteam testet eine KI-App für Jugendliche. Sie soll psychische Krankheiten verhindern, könnte in Zukunft aber auch in Psychotherapien eingesetzt werden. Von P. Kiss.
- KI-Modelle lernen auswendig und schlussfolgern nichtwww.heise.de KI-Modelle lernen auswendig und schlussfolgern nicht
Auch wenn die Anbieter behaupten, KI-Modelle seien gut im Reasoning – eine Studie legt nahe, dass sie nur rezipieren.
- Grenzen der Kreativität von KI-Textroboternwww.heise.de Grenzen der Kreativität von KI-Textrobotern
Künstliche Intelligenz erhöht die Schöpfungskraft, führt aber zu weniger abwechslungsreichen Inhalten, wie eine Studie zeigt.
- Experte: KI kann im Kampf gegen seltene Krebserkrankungen helfenwww.heise.de Experte: KI kann im Kampf gegen seltene Krebserkrankungen helfen
Dank KI und mehr Gesundheitsdaten machen Diagnostik und Therapie von Krebskrankheiten laut Technikfolgen-Abschätzern Fortschritte. Aber die Regulierung bremse.
Der Experte: > Dies schreibt der Biologe Marc Bovenschulte in einer jetzt veröffentlichten Kurzstudie des Büros für Technikfolgen-Abschätzung beim Bundestag (TAB).
Die Untersuchung [PDF]: Perspektiven künstlicher Intelligenz in der Diagnose und Therapie seltener Krebserkrankungen
- [Interview] KI-Training mit synthetischen Daten: "Das Internet kommt ans Fördermaximum"www.heise.de KI-Training mit synthetischen Daten: "Das Internet kommt ans Fördermaximum"
Große Sprachmodelle werden immer größer – und benötigen mehr und mehr Trainingsdaten. Was passiert, wenn das gesamte Menschheitswissen abgegrast wurde?
Interview mit Pablo Villalobos, Staff Researcher beim KI-Forschungsinstitut Epoch AI im kalifornischen San Jose.
- ChatGPT "halluziniert" nicht, sondern produziert "Bullshit"www.derstandard.at ChatGPT "halluziniert" nicht, sondern produziert "Bullshit"
Schottische Forschende beschäftigen sich in einer Studie damit, ob den KI-Falschaussagen eine Intention zugrunde liegt