Handelsblatt

MenüZurück
Wird geladen.

15.01.2002

22:21 Uhr

Sprache ersetzt bei Taschencomputern die Tastatur

Handy und PDA gehorchen aufs Wort

VonJan O. Löffken und Manfred Buchner

Sprachtechnologien sollen den Umgang mit Computern vereinfachen. Besonders Handy- und Handheld-Hersteller investieren in diese Entwicklungen. Eine neue Software, mit der Wörter im Satzzusammenhang analysiert werden, gilt als Schlüssel für die weitere Entwicklung in der Mensch-Maschine-Kommunikation.

HB HAMBURG. Computer und Handys lernen immer besser, die Sprachkommandos ihrer Besitzer zu verstehen. Konnten sie bislang auf Zuruf nur einzelne vorher programmierte Telefonnummern wählen, können mit dem neuen System "Elvis" des amerikanischen Unternehmens Voicesignal sogar SMS-Nachrichten diktiert, in Texte umgesetzt und versendet werden. Sogar Dialekte soll Elvis, das in Kürze auf den US-Markt kommen soll, erkennen.

Das System ist nur ein Beispiel für neuere Entwicklungen in der Spracherkennungstechnik für mobile Geräte, an denen IBM, Philips oder Siemens, aber auch viele kleinere Firmen gerade arbeiten. Das Geschäft mit der Spracherkennung wird für 2005 auf rund zwei Milliarden Euro geschätzt - mehr als das Zehnfache als noch vor drei Jahren. "Diese Technologie wird bis zur breiten Einführung von UMTS-Handys weit genug sein, um die Bedienung und Handhabung der neuen Geräte so einfach wie möglich zu machen", sagt Eric Thelen, Experte für Spracherkennung bei den Philips Forschungslabors in Aachen.

Erste Prototypen für Palm-Computer entwickelt

IBM-Forscher vom Watson Research Center in Yorktown Heights haben schon jetzt einen Prototypen für Spracherkennung auf Basis eines Palm-III-Organizers vorgestellt. Fragt der Nutzer sein Gerät in normaler Sprache nach dem nächsten Termin, antwortet das handliche Gerät und nennt das Datum und den Ort der Verabredung. Die Sprachausgabe erfolgt über eine synthetische Stimme. Einfache englische Phrasen übersetzt der Handheld in bis zu fünf Sprachen.

Da solche Sprachprogramme ein Minimum an Arbeitsspeicher und Prozessorgeschwindigkeit verlangen, kann die Technik noch nicht in den heute handelsüblichen Handys genutzt werden. Durch einen kleinen Trick gibt es dennoch erste Anwendungen, die auch mit diesen Mobiltelefonen genutzt werden können. Dazu laufen die komplexen Spracherkennungsprogramme auf einem zentralen Server, der mit dem Handy- und Festnetztelefon angerufen wird", sagt Thelen. Ausgeklügelte Spracherkennungsprogramme fragen die speziellen Wünsche des Anrufers ab, verstehen sie und bieten Wetterauskünfte, Hotelreservierungen oder Buchbestellungen. An der Entwicklung solcher Systemen für den "Voice-Commerce" arbeitet beispielsweise IBM Deutschland zusammen mit der Clarity AG.

Die mobile Spracherkennung steht auch im Mittelpunkt des Projekts "SmartKom" am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Saarbrücken. Das Verbmobil-System der DFKI-Forscher versteht bereits Spontansprache mit einer Genauigkeit von rund 90 % und übersetzt in Englisch, Japanisch oder Chinesisch. Die Liste der beteiligten Firmen, darunter Daimler-Chrysler, Siemens, Sony und Philips, zeigt, dass die Ergebnisse dieser Grundlagenforschung nicht nur auf Anwendungen im Handy, sondern auch im Auto oder in der Hauselektronik zielen.

Die Ziele sind hoch gesteckt, denn Computern sind immer noch nicht in der Lage, wirklich komplexe Zusammenhänge zu verstehen. Prof. Hans Uszkoreit, Wissenschaftlicher Direktor am DFKI: "Über die Sprache stellt der Mensch eine Verbindung zwischen Wörtern und der realen Welt her. Computer können zwar Texte speichern, nicht aber deren Bedeutung verstehen."

Bedeutung der Wörter wird erkannt

Mit dem so genannten Natural Language Processing (NLP) könnte sich das ändern. Dabei geht es um weit mehr, als Anweisungen zu erteilen oder Texte zu diktieren. Mit NLP soll ein Computer zum Beispiel auf die Frage: "Wie viel Geld ist auf meinem Konto?" die richtige Antwort finden. Den Schlüssel dazu sehen Linguistiker in einer Software, die grammatikalische Regeln analysieren und die Bedeutung von Wörtern und Sätzen erkennen kann.

Wissensdatenbanken sollen dafür die Basis bilden. Sie erlauben der Maschine Begriffsdefinitionen wie in einem Lexikon. NLP-Pionier Doug Lenat, ein ehemaliger Professor der Carnegie Mellon University, begann schon 1984 mit der Entwicklung der Wissensdatenbank Cyc. Inzwischen kann ein Computer mit Cyc rund eine Million Aussagen treffen und erkennen, dass Wasser nass ist und Bäume normalerweise im Freien stehen.

Auch kann er bei Suche nach einem Motiv wie "Abenteuersport" das Bild eines Felskletterers aus einem Archiv herausfischen. Kommerziell genutzt wird Cyc bereits in der Lycos-Suchmaschine Hotbot. Microsoft treibt die Entwicklung der NLP-Vorhaben derzeit voran. Rick Rashid, Leiter von Microsoft Research in Redmond bei Seattle, ist optimistisch gestimmt: "Mit Natural Language Processing", so Rashid, "kann man bald ein Buch einscannen und der PC wird in der Lage sein, Fragen zum Inhalt des Buches zu beantworten."

Direkt vom Startbildschirm zu Handelsblatt.com

Auf tippen, dann auf „Zum Home-Bildschirm“ hinzufügen.

Auf tippen, dann „Zum Startbildschirm“ hinzufügen.

×