Episode Transcript
Das KI Update, ein heise Podcast mit redaktioneller Unterstützung von The Decoder.
Ich bin Isabel Grünewald und dies sind heute unter anderem unsere Themen.
Google's Disco macht aus Browser-Tabs interaktive Web-Apps.
US-Regierung will KI-Regulierung durch Bundesstaaten verhindern.
OpenAI's Orttmen und DeepMind's Leg erwarten AGI innerhalb der nächsten zehn Jahre und sorgen wegen steigender Nutzung von KI in der Psychotherapie.
Google Labs stellt mit Disco einen experimentellen Browser vor.
Dessen Gent-Tabs sollen aus offenen Tabs und Chatverläufen automatisch Web-Apps generieren.
Volkerzotor von Heise Online hat sich das genauer angeschaut.
Mit seinem X-Point-Disco zieht Google beim Thema KI-Browser nach, bleibt allerdings hinter OpenAI Atlas und Perplexity Comet ein ganzes Stück zurück.
Während Atlas und Comet den Browser von vornherein um KI-Agentin herumdenken, die Aufgaben übernehmen und ganze Webseiten aktiv steuern können, baut Disco eher vorsichtig auf einen Tap-Prinzip auf.
Dabei kann die Funktion GenTaps offene Seiten in kleine interaktive Web-Apps verwandeln.
Das sieht auch schon ganz cool aus bei den jeweiligen Experimenten, die man schon sehen konnte.
Allerdings muss man sehen, ob Google das Ganze dann auch tatsächlich zum Schluss in Chrome oder einen anderen Browser einbaut.
Datenschützer sehen zwei Probleme.
Ein Disk gebraucht sehr tiefen Einblick in die geöffneten Tabs und Chat Verläufe, um passende Apps erzeugen zu können, was sehr genau Nutzungsprofil ermöglicht.
Aushelm ist bislang offen, wie stark diese Datenserverseite verarbeitet, gespeichert oder zum KI-Training genutzt werden können.
und wie transparent Google hier Einwilligungen, Wegbindung und Löschmöglichkeiten regelt.
Das Ganze ist noch in einem sehr flühen Stadium, bisher nur über Wartelist und auf MacOS verfügbar.
Man darf gespannt sein.
Vielen Dank, Volker.
Und noch eine Neuigkeit von Google.
Das Übersetzungstool Translate erhält ein größeres Update.
Laut dem Konzern ziehen die leistungsstärksten Übersetzungsfunktionen von Gemini in die Übersetzungs-App ein.
Vor allem soll Google Translate idiomatischer Ausdrücke, Redewendungen und slangtreffender Übersätzen als bisher.
Auch die Live-Übersetzungen mit allen Kopfhörern starten als besser, allerdings nur für einige Sprachen und noch nicht in Deutschland.
Mit der Funktion können Nutzerin-Echtzeit-Übersetzungen direkt in ihren Kopfhörern hören.
Dabei sollen der Tonfall, die Betonung und die Sprachmelodie jedes Sprecher erhalten bleiben, um natürliche Übersetzungen zu erstellen und es zu erleichtern, dem Gespräch zu folgen und zu erkennen, wie er was gerade gesagt hat, so der Konzern.
Laut Google lässt sich die Funktion nicht nur dazu verwenden, sich in einer anderen Sprache zu unterhalten oder im Ausland einem Vortrag zuzuhören, sondern auch, um ein Film in einer anderen Sprache zu schauen.
Für Deutschland ist die Ankündigung interessant, dass das im August eingeführte Sprachlärm-Tool nun auch hierzulande Sonderzündung bereitsteht.
Verbesserte Feedback-Funktionen geben hilfreiche Tipps auf der Grundlage der eigenen Speichübungen.
Und Lärmende können ihre Fortschritte im Laufe der Zeit nachverfolgen.
Die Bundesregierung hat den russischen Botschafter einbestellt, um gegen Desinformationskampagnen und Cyberattacken zu protestieren, die Russland zugeschrieben werden.
Ein Beispiel für Einflussversuche auf unsere Demokratie ist ein KI-generiertes Fake-Video über angebliche Übergriffe des ehemaligen grünen Kanzlerkandidaten Robert Habeck.
Deutsche Behörden stehen dabei vor einem Dilemma.
Thematisiert eine offizielle Stelle, die irgendwo in den Tiefen von X im Zusammenspiel von zehn Troll-Accounts verbreitete Desinformationen amplifiziert sie deren Reichweite um ein Vielfaches und erledigt damit den Job des Angreifers.
Zudem erschwert eine noch nicht optimale Zusammenarbeit der Sicherheitsbehörden, die abwehren.
Denn die eindeutige Zuordnung der Angriffe ist ein komplexer Prozess, der mehrere Dienste involviert.
Während es für Hacker-Angriffe etablierte Verfahren für das Zusammenspiel der Behörden gibt, fehlen diese für Desinformationskampagnen weitgehend.
Im Fall der Kampagne gegen Habeck dauerte die deutsche Zuordnung deutlich länger als bei den französischen Partnerbehörden.
Die Bundesregierung plant daher eine Gesetzesänderung, um den Nachrichtendiensten erweiterte Befugnisse zur aktiven Abwehr zu geben.
Was das genau umfassen soll, wird noch diskutiert.
Bundesinnenminister Alexander Dobrindt hat erklärt, es gehe darum, die Infrastruktur von Angreifern vom Netz zu nehmen, zu stören, zu zerstören.
Im aktuellen Fall wird es neben dem diplomatischen Protest nun auch gezielte Sanktionen gegen die Identifizierten verantwortlichen geben.
Donald Trump hat ein Dekret erlassen.
Es besagt, dass die US-Bundesstaaten keine Gesetze mehr erlassen dürfen, die KI-Innovation verhindern könnten.
Mehr zu dem Dekret weiß Eva Maria Weiß von Heise Online.
KI soll in den USA bundeseinheitlich geregelt werden.
Konkret soll KI eigentlich möglichst wenig reguliert werden.
Das möchten zumindest Donald Trump und zahlreiche KI-Anbieter, die ja bekanntlich einen großen Einfluss auf Trump haben.
Und wie derzeit so oft wird vorgeschoben, dass Regulation nämlich dem Wettbewerb mit China schaden könnte.
In dem Dekret wird zunächst allerdings festgehalten, dass ein gemeinsames Regelwerk entstehen soll und das soll dann über allen Gesetzen stehen, die es bereits in den einzelnen Bundesstaaten gibt.
Da wird es interessant und auch ein bisschen problematisch.
In Deutschland und in der EU wird ja gerne gemäckert, dass wir zu viel Regulierung hätten und dass wir überhaupt KI regulieren und damit Innovationen verhindern würden.
Für viele ist das auch der Grund, weshalb wir ja so abgehängt sind.
Ob wir das wirklich sind, ist die eine Sache.
Aber ob Regulierung wirklich ein Grund dafür ist, das ist nochmal eine andere Sache.
Denn in den USA gibt es tatsächlich schon jetzt mehr als hundert Gesetze, die konkret KI regulieren und die sich natürlich teilweise widersprechen.
Mehr als tausend Gesetzesinitiven soll es außerdem geben.
Natürlich gibt es dann auch noch in den einzelnen Bundesstaaten Gesetze, die KI Anwendungen betreffen, ohne dass sie konkret auf diese abzielen.
Also dazu gehören beispielsweise Gesetze zum Kinder- und Jugendschutz.
Die gibt es in Kalifornien und Texas ziemlich groß.
Und die USA haben auch schon vor einiger Zeit inzwischen das Thema Datenschutz entdeckt.
Auch diese Gesetze kollidieren teilweise mit KI.
Nun soll das neu erschaffende Regelwerk also überall diesen Gesetzen stehen.
Das möchte die Regierung unter Trump.
Einige Bundesstaaten möchten das allerdings nicht.
Und die haben auch schon Protest angekündigt und es ist gar nicht so richtig klar, ob Trump überhaupt ein Dekret erlassen kann bzw.
dieses Regelwerk so auf den Weg bringen kann, dass es alle anderen Gesetze einfach so überschreibt.
Und deshalb sagen jetzt auch ganz viele KI-Startups, Das Dekret mache die Lage eigentlich für sie eher noch schlimmer.
Weil Sie wissen jetzt gar nicht mehr, ob Sie sich dann an dieses bundesstaatliche Gesetz halten müssen oder vielleicht doch besser nicht.
Wenn Sie sich auf das Dekret oder auf die neue Regulierung dann verlassen, könnte es passieren, dass die ganz schnell wieder richterlich gekippt wird und dann gelten auf einmal doch wieder die Gesetze der einzelnen Bundesstaaten.
In der EU haben viele dem AI-Akt auch zugestimmt, weil sie schlussendlich genau eine solche Situation vermeiden wollten, unterschiedliche Gesetze in jedem Land.
Wir hinken also den US an dieser Stelle zumindest mit Nichten hinterher.
Danke Eva.
Bankkunden in Deutschland sind immer häufiger bereit, mit ihrem Finanzinstitut digital in Kontakt zu treten und sich auch mithilfe von Anwendungen künstlicher Intelligenz beraten zu lassen.
Das geht aus einer Studie des Beratungsunternehmens Oliver Wyman hervor.
Das Vertrauen in KI-gestützte Empfehlungen steigt spürbar, sagte René Fischer, Partner bei Oliver Wyman und Co-Autor der Studie.
Bereits heute nutze jeder dritte Kunde solche KI-Angebote oder möchte sie zeitnah ausprobieren.
KI-gestützte Tools entwickeln sich damit zunehmend zum ersten Anlaufpunkt für Produktzuche, Vergleich und erste Empfehlungen, sagte Fischer.
Allerdings sind die meisten Befragten gerade in Deutschland noch skeptisch, wenn es darum geht, einem automatisierten Online-Tool oder KI-Agenten der Bank zu erlauben, Transaktionen in ihrem Namen durchzuführen.
Über alle Altersgruppen weg halten fast die Hälfte ein persönliches Beratungsgespräch in einer Filiale für erforderlich, wenn es um größere Investitionen geht.
Für die Studie wurden knapp fünftausend Verbraucherinnen und Verbraucher in neun europäischen Ländern befragt.
Und wir bleiben beim Thema Finanzen.
Aktuelle KI-Modelle meistern offenbar die sogenannte CFA-Prüfung.
Das ist eine der schwierigsten Zertifizierungen für Finanzprofis weltweit.
Die dreistufige Prüfung testet aufeinander aufbauende Fähigkeiten vom Grundlagenwissen über Anwendung und Analyse anhand von Fallstudien bis hin zu komplexen Portfolio-Konstruktionen mit offenen Antwortvermatten.
Noch vor zwei Jahren scheiterten führende Sprachmodelle an dieser Prüfung.
Ein neuer Anlauf mehrerer US-Universitäten zeigt nun, dass die aktuelle Generation alle drei Stufen mit nahezu perfekten Ergebnissen besteht.
Die Forschenden testeten sechs Modelle an insgesamt neunhundert-achtzig Prüfungsfragen.
Die besten Modelle erreichten in Level eins und zwei, Genauigkeiten von bis zu achtundneunzig Prozent.
In Level drei, zweiundneunzig Prozent.
Dazu gehören Google's Gemini three-point-null-pro und Open AI's GPT-Fünf.
Am schwächsten schnitten die Modelle bei ethischen Fragen ab, die Kontextverständnis und Urteilsvermögen erforderten.
Die Forschenden betonen, dass eine bestandene Prüfung natürlich nicht bedeutet, dass ein Modell die tägliche Arbeit eines Finanzanalysten übernehmen kann.
Auch weil sie nicht ausschließen können, dass die eigentlich geschlossenen Prüfungsenhalte in irgendeiner Form über öffentliche Inhalte in die Trainingsdaten der Modelle eingeflossen sind.
Die aktuell noch vorherrschende Skepsis von Bankkunden gegenüber KI-Agenten scheint also trotz der guten Studienergebnisse berechtigt zu sein.
Zwei der einflussreichsten Köpfe der KI-Branche haben, fast zeitgleich, Prognosen zur Entwicklung künstlicher Intelligenz abgegeben.
Sowohl OpenAI-Chef Sam Altman als auch DeepMind-Mitgründer Shane Legg skizzieren einen Zeitrahmen für das Erreichen menschenähnlicher oder überlegener Maschinenintelligenz innerhalb des nächsten Jahrzehnts.
Max Schreiner von The Decoder mit den Einzelheiten.
Interessant ist dabei vor allem Erdmanns Einschätzung der gesellschaftlichen Folgen, denn er erwartet eine exponentiell wachsende technologische Fähigkeit, die andererseits aber den Menschenalltag und die persönlichen Prioritäten kaum verändern werde.
Der Fokus werde, sagt er, weiterhin auf zwischenmenschlichen Interaktionen liegen.
Rückblickend verteidigt Altmann auch die Strategie seines Unternehmens, Kehr-E-Modelle schrittweise zu veröffentlichen.
Dieser Ansatz der iterativen Bereitstellungen ermöglicht eine Co-Evolution von Gesellschaft und Technologie.
Die Menschen könnten sich so langsam an die neuen Werkzeuge gewöhnen.
Ob mehr er selbst hat, in dieser Dekade ein radikalen Wandel vollzogen, was in den Jahren des Jahrhunderts als Non-Profit-Organisationen begann, ist heute ein hybrides Konstrukt mit Milliarden Investitionen von Microsoft und einer gewinnorientierten Sparte.
Eine etwas differenziertere Prognose liefert dagegen Shane Legg von der Google-Tochter DeepMind.
In einem Interview beziffert er die Wahrscheinlichkeit für eine sogenannte minimale AGI bis zum Jahr twenty-eightundzwanzig auf fünfzig Prozent.
Legg unterscheidet dabei genau.
Eine minimale, allgemeine, künstliche Intelligenz definiert er als ein Agenten, der kognitive Aufgaben auf menschlichen Niveau bewältigen kann.
Die volle HCI sieht Leck dagegen erst drei bis sechs Jahre später.
Diese Stufe würde das gesamte Spektrum menschlicher Kognition abdecken, bis hin zum Entwickeln neuer wissenschaftlicher Theorien.
Um diesen Punkt zu bestimmen, schlägt Leck auch ein striktes Testverfahren vor.
Eine KI gelte nach Leck erst dann als HCI, wenn menschliche Experten, die ihm selbst nach monatelange Suche und mit vollem Zugriff auf das System, keine Schwachstellen mehr finden können.
Sein Kollege, der Mr.
Sabes, CEO von Diebmeid, erwartet diese Art von EJI ebenfalls um das Jahr im Jahr two-tausend-dreißig.
Dankeschön, Max.
Der Softwarehersteller Adobe integriert Photoshop, Acrobat und Express direkt in ChatGPT als App.
Nutzerinnen und Nutzer können damit Bilder und Dokumente kostenlos per Texteingabe bearbeiten.
Mit der Photoshop Integration lassen sich Fotos durch einfache Beschreibungen anpassen, etwa um Hintergründe zu ändern.
Adobe Express ermöglicht das Erstellen von Designs wie Einladungen.
Acrobat erlaubt die direkte Bearbeitung von PDFs im Chat.
Die Einrichtung erfolgt über die ChatGPT-Einstellungen im Bereich Apps und Connectors.
Adobe empfiehlt, Befehle möglichst klar zu formulieren und komplexe Aufgaben in einzelne Schritte aufzuteilen.
Nach jeder Anpassung lassen sich die Ergebnisse mit Schiebereglern verfeinern.
Auch in der Psychotherapie spielt KI zunehmend eine Rolle.
Doch mit der Nutzung wachsen auch die Sorgen, berichtet Marie Claire Koch aus dem heise online Newsroom.
Eine aktuelle Umfrage der American Psychological Association zeigt, über die Hälfte aller Psychologinnen und Psychologen hat im letzten Jahr KI zur Unterstützung genutzt.
Ein deutlicher Anstieg.
Doch die Technologie bleibt klar im Hintergrund, statt Diagnosen zu stellen oder Patientengespräche zu führen, dient sie vor allem als Effizienzbooster für administrative Aufgaben wie das Verfassen von E-Mails, oder die Zusammenfassung von Fachartig.
Der direkte Einsatz am Patienten bleibt die absolute Ausnahme, der Grund dafür ist wachsendes Misstrauen.
Denn je vertrauter die Therapeuten mit der Technologie werden, desto größer werden ihre Bedenken.
Ganz oben auf der Sorgenliste stehen Datenschutzverletzungen und die Angst vor unvorhersehbaren gesellschaftlichen Schäden.
Und das ist kein rein amerikanisches Phänomen.
Ein Bericht der in Berlin gegründeten Therapeutenplattform It's Complicated bestätigt diese Bedenken auch vor Europa.
Hier fürchten Therapeuten vor allem ungenaue KI-Antworten und den Verlust der für die Therapie wichtigen menschlichen Verbindungen zum Klienten.
Interessanterweise nutzen aber auch die Patientinnen und Patienten selbst immer häufiger KI für ihre psychische Gesundheit.
Mehr als die Hälfte greift auf allgemeine Chatbots wie ChatGPT zurück, um Gedanken zu sortieren oder sich auf Therapiesitzungen vorzubereiten.
Psychologen erklären dieses Phänomen mit der besonderen Fähigkeit der KI, als Resonanzmaschine zu wirken.
Sie kann menschliche Emotionen zwar nicht fühlen, aber erstaunlich präzise spiegeln und darauf reagieren.
Doch auch die Klienten teilen die Sorgen der Experten.
Die Angst vor fehlerhaften Rat und mangelndem Datenschutz ist groß.
Der Wunsch ist eindeutig, KI soll die Therapie ergänzen, nicht ersetzen.
Das Fazit ist daher klar.
Der Mensch muss die Kontrolle und die Verantwortung behalten, KI kann ein nützliches Werkzeug sein, um den Arbeitsalltag zu erleichtern.
Die eigentliche therapeutische Arbeit, die auf Vertrauen, Empathie und menschlicher Bindung basiert, muss aber fest in den Händen der Therapeuten bleiben.
Vielen Dank, Marie.
Spezifische Krankheiten ohne Arztbesuch frühzeitig erkennen oder sogar noch bevor sie richtig ausbrechen?
Das wäre nicht nur für Smartwatch-Nutzerinnen und Nutzer, äußerst praktisch.
Es könnte auch positive Auswirkungen auf überfüllte Arztpraxen und überlastete Gesundheitssysteme haben.
Forschende vom Massachusetts Institute of Technology und dem HealthTech-Unternehmen Empirical Health arbeiten derzeit an einer solchen Lösung.
Dafür haben sie rund drei Millionen Personentage an Daten, der Apple Watch analysiert.
Also Herzrequenz, Bewegung, Schlaf und mehr.
Mit diesen Daten haben sie ein KI-Modell trainiert.
Statt wie klassische, aufwendig gelabelte Trainingsdaten nur auf wenige Vorfälle zu schauen, nutzt das Modell iJAPA eine selbstlernende Methode.
Es verarbeitet zeitrein diverser Sensor- und Verhaltensdaten, auch wenn sie unregelmäßig oder lückenhaft sind, und lernt darin, Muster zu erkennen.
Erst danach erfolgt die Feinjustierung mit einem kleineren, gelabelten Datensatz.
Das Ergebnis der Studie ist, die neue KI kann mit erstaunlicher Gelaugigkeit auf Erkrankungen wie Bluthochdruck, Vorhoflattern oder Herzrhythmostörungen hinweisen.
Die Ergebnisse sind allerdings noch lange keine Diagnose, sondern Vorhersagen.
Wann und ob solche Modelle klinisch verwendet werden, hängt von weiteren Studien, der Validierung und regulatorischen Prüfungen ab.
Das war das KI-Update von Heise online vom fünften Dezember, für einen neuen Folge gibt es immer montags, mittwochs und freitags um fünfzehn Uhr.
