Google, Microsoft und andere Technologiekonzerne entwickeln Künstliche Intelligenz mit erstaunlichen Fähigkeiten. Ein deutsches Konsortium plant einen Gegenentwurf.
Kollaborativer Roboter (Archiv)
Wenn Mensch und Maschine zusammenarbeiten, ist oft Künstliche Intelligenz im Spiel.
Bild: dpa
Düsseldorf Wie wohl eine persische Katze aussieht, die in Lederjacke und Cowboyhut an einem Strand steht und Gitarre spielt? Dem menschlichen Hirn dürfte es schwerfallen, sich diese absurde Situation vorzustellen. Künstliche Intelligenz (KI) hat dagegen kein Problem damit, sie zu visualisieren: Ein System von Google, Imagen genannt, macht aus Texteingaben aller Art fotorealistische Bilder.
Es ist nur ein Beispiel für die großen Fortschritte, die die Technologie gerade macht. KI-Systeme können auf beachtlichem Niveau Gedichte schreiben und Artikel, Programmcode erstellen und Websites designen. Ein Mitarbeiter von Google glaubte kürzlich gar, das Sprachmodell LaMDA habe ein Bewusstsein entwickelt.
Die Technologie funktioniert allerdings nur auf Englisch oder Mandarin: Systeme mit großen neuronalen Netzen wie Imagen, die unter Wissenschaftlern für Furore sorgen, stammen größtenteils von amerikanischen und chinesischen Unternehmen und Forschungseinrichtungen. Beim jüngsten Trend ist Deutschland mal wieder außen vor.
Screenshot Imagen
Ein KI-System von Google kann nach Textvorgaben Bilder erstellen.
Bild: imagen.research.google
Eine Gruppe deutscher Unternehmen, Forschungseinrichtungen und Verbände will das ändern – und fordert politische Unterstützung: Die Initiative LEAM, an der unter anderem Bayer, Bosch, Continental, Eon, SAP und T-Systems beteiligt sind, dringt in einem aktuellen Konzeptpapier auf den Bau eines Supercomputers, der für das Training von großen KI-Modellen geeignet ist.
Für Jörg Bienert, Präsident des KI Bundesverbands und Mitinitiator von LEAM, ist das eine Frage von großer Bedeutung: „In Europa stehen wir vor der Herausforderung, den Anschluss an die Entwicklung und einen weiteren Teil unserer digitalen Souveränität zu verlieren.“
So seien die Modelle von amerikanischen und chinesischen Anbietern weder offen zugänglich noch transparent, zudem gebe es nur begrenzt Unterstützung für Sprachen wie Deutsch oder Französisch. Daher drohe eine Abhängigkeit.
Die Kosten werden über einen Zeitraum von fünf Jahren auf mindestens 375 Millionen Euro geschätzt. Nun suche man die Unterstützung der Politik, so Bienert im Gespräch mit dem Handelsblatt. Mit dem Bundesministerium für Wirtschaft und Klimaschutz sei man bereits im Austausch.
Den aktuellen Hype um Künstliche Intelligenz löste Open AI aus: Im Juni 2020 veröffentlichte das Unternehmen mit GPT-3 ein Sprachmodell, dessen Leistungsfähigkeit in den Medien wie in der Fachwelt für Begeisterung sorgte.
Im Hintergrund arbeitet ein künstliches neuronales Netz. Es enthält 175 Milliarden Parameter, also Knotenpunkte, hundertmal so viel wie die Vorgängerversion. Die Programmierer haben 570 Gigabyte Weltwissen eingespeist, von Wikipedia über digitalisierte Bücher und Zeitschriften bis zu Texten aus dem Internet. Diese Menge entspricht dem 380.000-fachen Umfang der Bibel.
Die Größe des Modells, kombiniert mit einer enormen Datenmenge, sorgte nach Einschätzung aus Fachkreisen für einen Durchbruch: Künstliche Intelligenz konnte plötzlich mit Sprache umgehen. Ohne ein inhaltliches Verständnis, wohlgemerkt: Das Modelle errechnet mithilfe statistischer Methoden, welche Wörter als Nächstes kommen. Es handelt sich um Wahrscheinlichkeitsrechnung.
>> Lesen Sie hier: Starker Anstieg: Jedes zehnte Unternehmen in Deutschland nutzt KI
Die Veröffentlichung von GPT-3 war der Start eines Wettrüstens. In den folgenden Monaten haben mehrere Technologieanbieter und Forschungseinrichtungen weitere Modelle veröffentlicht. Die derzeit größten sind Wu Dao 2.0 von der Beijing Academy of Artificial Intelligence (BAAI) mit 1,75 Billionen sowie Switch Transformers von Google mit 1,6 Milliarden Parametern. Bei diesem Wettrüsten ist Europa praktisch außen vor: Einziges Unternehmen in den Top Ten ist das deutsche Start-up Aleph Alpha.
Die Entwicklung in Europa sei zu zaghaft, schlussfolgert LEAM im Konzeptpapier – der gesellschaftlichen und wirtschaftlichen Bedeutung der neuen Technologie werde das nicht gerecht. Daher sei eine konzertierte Aktion nötig. Denn: „Es wäre gefährlich und fahrlässig, die technologische Entwicklung den großen Tech-Konzernen in den USA und China zu überlassen.“
Bemühungen gibt es durchaus. So fördert die Bundesregierung mit 15 Millionen Euro das Projekt Open GPT-X, in dem zehn Organisationen aus Wirtschaft und Wissenschaft rund um das Fraunhofer-Institut IAIS Sprachmodelle entwickeln wollen. Es fehle aber eine „für die Entwicklung großer KI-Modelle dedizierte Infrastruktur, um eine erfolgreiche Aufholjagd zu starten“.
Das Training eines großen Modells kann einige Wochen dauern, berichtet Bienert – für deutsche Entwickler sei es schwierig, die dafür nötigen Rechenkapazitäten zu bekommen. Zwar gebe es am Forschungszentrum Jülich einen Supercomputer, der werde jedoch hauptsächlich für Simulationen in unterschiedlichen wissenschaftlichen Bereichen genutzt. Wer auf das System zugreifen wolle, müsse sich erst mühsam bewerben.
Deswegen soll es nach Vorstellung der Initiative einen eigenen Superrechner für Künstliche Intelligenz geben, beispielsweise um große Modelle zu trainieren. „Wir würden uns freuen, wenn es Anfang bis Mitte 2023 losgehen könnte“, sagt Bienert. Allerdings gebe es bei der Hardware wegen des Chipmangels Lieferprobleme. „Deswegen müssen wir uns mit dem Startschuss umso mehr beeilen.“
Ob LEAM Erfolg haben wird, ist offen – die Teilnehmer haben bislang lediglich Absichtserklärungen unterzeichnet. Das Interesse ist aber groß, wie die breite Beteiligung von insgesamt 40 Forschungseinrichtungen, Start-ups und Großunternehmen zeigt. Allein sieben Dax-Konzerne unterstützen die Initiative.
Dabei spielen unterschiedliche Erwägungen eine Rolle. SAP beispielsweise nutzt Künstliche Intelligenz, um die eigene Software zu verbessern. So bettet der Konzern Algorithmen in seine Programme ein, um Zahlungseingänge automatisch mit Rechnungen abzugleichen oder die E-Mails von Kunden zu kategorisieren – was Geschäftsprozesse deutlich effizienter macht.
>> Lesen Sie hier unsere Kolumne: Das Ende des Denkens, wie wir es kennen
Kunden müssen die Algorithmen vor dem Einsatz mit ihren eigenen Daten trainieren. Dieser Aufwand sinke mit großen Modellen deutlich, was die Einführung enorm erleichtere, sagt Fei Yu Xu, die als „Global Head of Artificial Intelligence“ für die Technologie verantwortlich ist. „Das ist wie die Gesichtserkennung beim Handy: Ein paar Mal in die Kamera gucken – das war es.“
Für den Energiekonzern Eon ist Künstliche Intelligenz wichtig, um Interaktionen mit Kunden zu automatisieren, etwa durch Chatbots. „Dafür brauchen wir hochqualitative Sprachmodelle, die idealerweise auf deutschen Texten trainiert wurden“, heißt es. Der Großteil der führenden Systeme sei indes mit englischen Daten trainiert worden und funktioniere daher am besten für englische Konversationen – LEAM soll den Fokus erweitern.
Die Telekom-Tochter T-Systems wiederum betont die Bedeutung der Transparenz: Modelle wie GPT-3 seien Blackboxen, erklärt das Unternehmen auf Handelsblatt-Anfrage. LEAM verspricht dagegen, auf Aspekte wie Transparenz und Nachhaltigkeit zu achten – also das, was gern unter europäischen Werten subsummiert wird. So sollen Experten leichter nachvollziehen können, wie Verzerrungen in den Ergebnissen zustande kommen.
Auf tippen, dann auf „Zum Home-Bildschirm“ hinzufügen.
Auf tippen, dann „Zum Startbildschirm“ hinzufügen.
×
Kommentare (4)