Artikel: Das Dilemma der Innovationsprognosen – Debakel mit dem Orakel

Der Autor dieses Artikels, Dr. Thomas von Randow, beschreibt bereits 1982 die Problematik, verlässlich Innovationsentwicklungen vorherzusagen. Er nennt eine Fülle von Fehlprognosen und ebensolcher Methoden, wie beispielsweise die sogenannte „Delphi-Methode“, und ihre Erfinder. Trotz einer hohen Kenntnisdichte zeichnet den Artikel ein verständlich Sprache aus. Der Text und die Zeichnungen sind  ein Lesegenuss. Der Artikel ist im dialog-Magazin der ehemaligen Nixdorf Computer AG, Paderborn, 1982 erschienen. (Eduard Heilmayr)

Debakel mit dem Orakel

Paderborn, 1982 (Dr. Thomas von Randow, dialog-Magazin) – „Der Kluge horcht nach der Vergangenheit, wandelt in der Gegenwart, denkt aber an die Zukunft“, sagt ein italienisches Sprichwort. Menschen, die zu ergründen versuchen – oder zu wissen vorgeben -, was die Zukunft bringt, sind denn auch in allen Kulturen als Weise oder gar Heilige verehrt worden. Der aufgeklärte Zeitgenosse amüsiert sich allenfalls über die kleingläubigen Herrscher der Antike und des Mittelalters, die vor ihren Entscheidungen bei Propheten und Sehern Rat holten. In Wahrheit aber verhält sich der moderne Entscheidungsträger nicht anders. Zwar nennt er seine Ratgeber heute nicht mehr Propheten, sondern „Planungsvorgaben“ oder „Trendanalysen“, aber er bedarf ihrer weitaus dringlicher als die alten Könige und Krieger, weil sich im vielfältig verzahnten Komplex der Industriegesellschaften die Folgen einer Fehlentscheidung wie eine fatale Seuche verbreiten können.

Diese Einsicht hatte in den sechziger Jahren Wissenschaftler dazu angeregt, die Möglichkeit einer systematischen Vorhersage künftiger Ereignisse zu erkunden. Bald machten „Zukunftsforscher“ von sich reden, und wie stets, wenn ein neuer Titel erfunden worden ist, legten sich diesen auch allerlei Möchtegern-Gelehrte zu.

So manches Phantasieprodukt, das bislang als Utopie oder Sciencefiction eingeordnet worden war, gerierte sich nunmehr als futurologisches Forschungsergebnis. Sah der eine „Forscher“ die Menschen im Jahr 1980 in riesigen Unterwasserstädten leben, wähnte der andere uns Heutige als Bewohner von Mond- und Marssiedlungen. Das vollautomatische Dienstmädchen gehörte zu den Lieblingsthemen der modernen Seher; ein Roboter für die Hausarbeit, der gesprochene Anweisungen entgegennimmt und nicht nur putzt, wäscht und kocht, sondern auch den Hund Gassi führt.

Hunger dürfte es längst nirgendwo mehr geben, weil in vollautomatischen, transportablen Nahrungsmittelreaktoren Eiweißstoffe aus praktisch jeder organischen Substanz synthetisiert würden, aus Unkraut, Gras, Altpapier oder Kohle. Zudem dürften Bewohner entlegener Gebiete ohne Infrastruktur keine Transportprobleme mehr haben, weil die Güter mit „Laufzeugen“ dorthin gebracht würden, Maschinen, die, übergrossen Insekten gleich, mit langen Beinen über Stock und Stein staksen — tatsächlich sind solche Geräte versuchsweise für den Apollo-Mondflug konstruiert worden, aber sie erwiesen sich als zu wacklig.

Bis 1976, so sah es das führende US-Wirtschaftsmagazin „Fortune“ vor 25 Jahren, sollte es Wissenschaftlern gelungen sein, das Blattgrün Chlorophyll künstlich herzustellen, das Sonnenkraftwerk der Pflanzen. Und atomare Sprengsätze würden „friedlich“ für Erdarbeiten verwendet, etwa um Hafenbecken auszuheben.

Nicht viel besser als den Phantasten erging es denen, die mittels wissenschaftlicher Erleuchtung die Zukunft aufzuhellen versuchten. So hatte der weltbekannte amerikanische Biologe Paul Ehrlich zum Beispiel 1969 mit mathematischer Akribie errechnet, daß im Jahre 1980 der Fischbestand der Meere ausgerottet sein würde. Der Verkehrsexperte Gabriel Bouladon vom zukunftsorientierten Battelle-Institut prophezeite im Oktober 1967: „Die letzten Omnibusse — elektrisch betriebene natürlich, wie von den um 1980 erlassenen Umweltgesetzen vorgeschrieben — werden bis 1990 verschwunden sein.“ Statt dessen würden überall an den Straßenrändern Selbstbedienungstaxis stehen, die jeder mittels Kreditkarte als Zündschlüsse! fahren und am Ziel einfach stehen lassen kann. Aussehen würden sie wie alle Autos um 1985: durchsichtige Plastikwürfel einheitlicher Größe auf winzigen Rädern; eine Super-Computerzentrale fädelt sie in den wie von Geisterhand gelenkten Verkehr ein. „Keine Ampeln wird es mehr geben und keinen Stau“, lautete die frohe Botschaft des Schweizer Verkehrsexperten. Für die rasch aufladbaren Wasserstoff-Batterien dieser elektrisch angetriebenen Fahrzeuge hatte Batteile schon ein Patent angemeldet. Ebenso für den Pneumatic Logic Tube Train, mit dem Güter und Passagiere wie in Rohrpost-Bomben durch ein gewaltiges Röhrensystem gepustet werden – mit Tempo 800.

Für die Luftfahrt hatte die Studie besonders starke Leistungssteigerungen ausgemacht. Danach müssten Linienflugzeuge heute schon 16 000 Kilometer in der Stunde zurücklegen. Frankfurt – New York: ein Katzensprung von 25 Minuten Dauer.

Alle Zukunftsexperten, selbst die vorsichtigsten, waren vor 25 Jahren in drei Punkten einhelliger Meinung: 1985 würden Fusionsreaktor-Kraftwerke fast die gesamte Energieversorgung der industrialisierten Welt übernommen haben, würde Krebs eine harmlose, weil heilbare Krankheit sein, und es würden korrekte Übersetzungen von Texten aus einer Sprache in die andere von Computern angefertigt.

Wir wissen heute, am Ende der achtziger Jahre, daß keine dieser drei fraglos wünschenswerten Innovationen Wirklichkeit geworden ist. Warum war man sich vor einem Vierteljahrhundert über ihr Eintreffen so sicher?

Weil alles darauf hindeutete. Die Kernspaltung war schon erfolgreich gezähmt worden; warum sollte dies nicht auch mit der Wasserstoffbombe möglich sein? Physiker wußten sogar schon, wie dies zu bewerkstelligen sei. Das für die Kernverschmelzung notwendige superheiße Plasma, das jeden materiellen Behälter augenblicklich zum Verdampfen bringen würde, sollte in „Flaschen“ aus magnetischen Feldlinien eingeschnürt werden. Die Verwirklichung des Fusionsreaktors war „nur noch ein technisches Problem“; vor 25 Jahren gleichbedeutend mit „ein in absehbarer Zeit lösbares Problem (dem Ingeniör ist nichts zu schwör)“. Inzwischen haben wir gelernt, daß auch die Technik zuweilen an Grenzen des Machbaren stößt. Noch ist es nicht einmal im Experiment gelungen, ein Plasma der geforderten Art annähernd so lange aufrechtzuerhalten, wie es für die Kernfusion benötigt wird.

Die Anfangserfolge der Chemotherapie gegen den Krebs waren überaus ermutigend. Einige Krebsformen sind kurierbar geworden. Doch die spezifisch auf Tumorzellen wirkende Chemikalie, die 1960 zum Greifen nahe schien, zumal sich einige Substanzen in Zellkulturen schon so verhielten, ist bis heute nicht entdeckt worden.

Die Sprachübersetzung mit Computern hatte schon damals eine lange Tradition. Diese Hoffnung reifte gleich mit den ersten Elektronenrechnern. Die ersten Versuche, sie zu verwirklichen, waren überdies vielversprechend. Vor allem am Massachusetts Institute of Technology (MIT) an der US-Ostküste und in den Forschungslabors der amerikanischen Bell-Telefongesellschaft waren schon 1956 verblüffende Übersetzungseriolge gelungen. Sie mußten nur noch auf komplizierte Texte ausgedehnt werden. Das aber ist bis heute nicht geglückt.

Freilich haben die Bemühungen um die Maschinen-Übersetzung einen durchbruchartigen Erkenntnisgewinn in den Sprachwissenschaften und einen gewaltigen Innovafionsschub für die Informatik gebracht. Einer hatte exakt dies vorhergesehen, der Mathematiker und Erfinder der Kybernetik, Norbert Wiener. Er erklärte 1956 in einem Symposium am MIT: „Ich glaube inzwischen, daß MT (machine translation) für die Linguistik das sein wird, was das Gold der Alchimisten für die Porzellanmanufaktur gewesen ist, eine vergebliche Suche, mit unerwartet wertvollen Entdeckungen.“

Gemeinsam ist den drei bislang vergeblich erwarteten Innovationen, daß es ihnen am rettenden Einfall gebrach. Im nachhinein kommt uns manche Erfindung so vor, als habe sie „in der Luft gelegen“. Doch vorausschauend, so scheint es, ist in der Luft so recht nichts zu erkennen.

Einer, der davor nicht kapitulieren wollte, war der deutschamerikanische Mathematiker bei der RAND Corporation in Kalifornien, Olaf Helmer. Er machte sich mit „Delphi“ einen Namen, einer speziell für Innovationen erdachten, prognostischen Methode, die auf der merkwürdigen Annahme beruhte, daß Experten ein Gespür für zukünftige Entwicklungen hätten und sich diese individuellen Intuitionen zu verläßlichen Vorhersagen verdichten ließen.

Doktor Helmer verschickte Fragebogen an 150 Persönlichkeiten — Wirtschaftler, Ingenieure, Mathematiker, Offiziere, Betriebsberater, Physiker, Soziologen und (fünf) Schriftsteller. 81 der Angeschriebenen entsprachen der Bitte des Mathematikers, „größere wissenschaftliche Umwälzungen und Erfindungen zu nennen, die Ihnen in den Sie besonders interessierenden Gebieten sowohl dringend notwendig als auch innerhalb der nächsten fünfzig Jahre realisierbar erscheinen“. Diese Angaben wurden für eine zweite Fragebogenaktion aufgelistet. Diesmal sollte jeder angeben, für wie wahrscheinlich er in welchem künftigen Zeitraum die Verwirklichung der einzelnen Erfindungen oder Durchbrüche halte.

Nachdem dies geschehen war, wurden den Experten die meisten Ergebnisse der zweiten Befragung mitgeteilt. Nun sollten sie sich noch einmal zu denjenigen zukünftigen Ereignissen äußern, über deren Eintrittswahrscheinlichkeit keine rechte Einigung zustande gekommen war. Auch dies geschah. Und nach einer vierten, weiterhin auf Einigung abzielenden Befragung stellte Helmer über sechs verschiedene Gebiete Tabellen zusammen, die jeweils ein Zukunftsbild zeichneten.

Ob diese Delphi-Technik Licht in das Dunkel der Zukunft bringen würde — Helmer selbst äußerte sich hoffend, jedoch nicht ohne Zweifel darüber. Inzwischen sind zwanzig Jahre vergangen, und so hat sich ein Teil jenes Dunkels zur Gegenwart und Vergangenheit aufgehellt. Manches traf ein, zum Beispiel die für die Jahrzehntwende 1970 vorausgesagte Entwicklung der Antibabypille. Zahlreich aber sind auch die Nieten. Der schon erwähnte automatische Dolmetscher sollte selbst nach Meinung der vorsichtigsten unter den Experten spätestens 1978 seine Arbeit aufnehmen Wirtschaftlich tragbare Meerwasserentsalzung müsste es seit zehn Jahren geben, ebenso synthetische Baustoffe für eine ultraleichte Bauweise. „Zuverlässige Wettervorhersagen“ waren mit größter Wahrscheinlichkeit für 1985 angesagt, auf dem Gebiet der Wetter- oder gar Klimakontrolle müsste sich inzwischen auch schon etwas tun, eine „Revision der physikalischen Theorien“ – ein neuer Einstein? – war für 1980 erwartet, und eine „zentrale Informationsbank“ wäre in drei Jahren fällig.

Nein, dieses Delphi war kein gutes Orakel. Nigel Calder, der etwas früher als Helmers Aktion in der englischen Wissenschaftszeitschrift „New Scientist“ Wissenschaftler über die Zukunft spekulieren ließ, hatte zwar keine bessere, aber auch keine schlechtere Trefferquote. Statistisch gewertet, war sie in beiden Fällen gleich Null.

Die Vorstellungskraft, auch die von Experten, hilft offenbar wenig, wenn es gilt, das Morgen zu ergründen, weil wir Gefangene des Heute sind. Alle futurologische Intelligenz in der Blütezeit der Zukunftsforschung sah weder die damals nahe bevorstehenden Energiekrisen, noch die weltweite Arbeitslosigkeit voraus. Selbst auf den Taschenrechner war keiner gekommen. Hingegen errechnete der prominenteste Futurologe, Hermann Kahn, aus einer Fülle von Daten, daß Frankreich in den achtziger Jahren zur führenden Weltmacht würde, daß sich ein nie zuvor gekannter Wohlstand über den Erdball verbreite, in dem nur noch wenige, denen es halt Spaß mache, arbeiteten, während sich die anderen dem Genuß eines permanenten Studiums und anderen kulturellen Freuden hingäben.

Die Analyse der damals prophezeiten Innovationen zeigt, wie leicht wir sich anbahnende Entwicklungen überschätzen. Der Harvard-Psychologe Skinner hatte mit einer Lernmaschine experimentiert, einem Mechanismus, der dem Schüler den Lehrstoff portionsweise unter einem kleinen Fenster zu lesen gab. Jeder dieser Lehreinheiten folgten Fragen, die mit Knopfdruck für „ja“ oder „nein“ zu beantworten waren. Skinner schwebte vor, mit solchen Apparaten jedem Lernenden die Möglichkeit zu geben, sein Lerntempo selbst zu bestimmen. Skinners Slogan: Ein Privatlehrer für jedes Kind.

Geschäftstüchtige Leute griffen die Idee rasch auf. Erziehungswissenschaftler verfeinerten die Methode, bald war die pädagogische Revolution geboren: programmiertes Lernen. Für die Zukunftsdeuter war damit die Richtung klar. Nicht nur Kinder, sondern auch Erwachsene würden in naher Zukunft an Lernmaschinen geradezu spielend und darum mit Wonne so viel lernen wie keine Generation zuvor. Das englische Schlagwort, weltweit im Munde geführt, hieß permanent education.

Skinners Apparat klappert in keinem Klassenzimmer mehr, der Traum vom automatischen Privatlehrer ist verflogen; geblieben ist der computergestützte Unterricht, dessen Name freilich weitaus mehr verspricht als die Realität hält. Und die Mehrheit der Menschen gibt sich in den achtziger Jahren der Unterhaltung durch das Fernsehen hin statt der Lust am lebenslangen Lernen.

Wer nicht wie einst Hitler an die Vorsehung oder wie Wallenstein an ein in den Sternen festgeschriebenes Schicksal glaubt, weiß nur zu genau, daß Zukunft prinzipiell unerfahrbar und darum Künftiges nur in dem Maße vorhersehbar ist, indem es durch wohlbestimmte Kausalketten mit gegenwärtig erkennbaren Prämissen verknüpft oder von unverkennbaren Entwicklungslinien gekennzeichnet ist. Dieses Maß freilich ist in den allermeisten Fällen recht dürftig. Selbst das Wetter, immerhin ein physikalischer Vorgang, unbeeinflußt vom kapriziösen Verhalten der Menschen, läßt sich allenfalls für drei, vier Tage schlecht und recht vorhersagen.

Ein bißchen zuverlässiger sind allerdings die Meteorologen geworden, seitdem ihre Arbeit von Satellitenbildern unterstützt wird. Waren sie bis dato weitgehend auf — viel zuwenig — Meßdaten angewiesen, von denen Kausalitätsketten abgeleitet werden mußten, haben sie nunmehr Gelegenheit zu Trendanalysen. Das Hoch, das sich — auf dem Satellitenfilm deutlich sichtbar – nach Südosten bewegt, wird nicht abrupt seine Richtung ändern, sondern seine Reise in den kommenden Stunden fortsetzen. Für Unsicherheit aber sorgen  die heute noch nicht auszumachenden Trends, die morgen schon entscheidend für das Geschehen sein können. Sie gleichen den innovativen Entwicklungen im stillen Bastelbüdchen oder hinter verschlossenen Labortüren konkurrenzfürchtender Firmen.

Den Mikroprozessor hat niemand, der nicht an seiner Entwicklung beteiligt war, vorausgeahnt. Er kam, sah und siegte auf der ganzen Linie. Eine Weile war dann das Prognostizieren einfach. Daß Computergenerationen in kurzen Zeitspannen aufeinanderfolgen würden, jede leistungsfähiger, bedienungsfreundlicher, billiger, kleiner und schneller als die vorige — jeder in der Branche las dies an weit in die neunziger Jahre projizierten Kurven in seiner Fachzeitschrift ab. Beliebt wurden die Graphiken, welche die Komplexität der Bauelemente mit den Jahren ihrer Markteinführung in Beziehung setzten. Auf der Y-Achse die Speicherfähigkeit von integrierten Schaltungen, logarithmisch aufgetragen von null bis zehn Millionen Bits; auf der X-Achse die Zeit von 1960 bis zum Jahr 2000. Die Kurve: eine Gerade, die im Winkel von 45 Grad emporsteigt. Ihr unteres Ende: die Realität. Doch ob sich die künftige Entwicklung so linear weiterentwickeln würde, ist die schlichte Frage, die Prognostiker gerne ignorieren.

Der Schwung, den solche Schaubilder noch vor acht Jahren suggerierten, ist keineswegs verpufft. Nur sind die Erwartungen konservativer geworden. Neue, hyperkomplexe elektronische Komponenten zu entwickeln kostet viel Geld. Ein einziger Flop kann eine Firma an den Rand des Ruins bringen. Zu so einem fatalen Versager mag es aus dem banalen Grund kommen, daß die Nachfrage für das entwikkelte Produkt falsch eingeschätzt worden ist.

Wie sehr sich sogar versierte Fachleute über die Akzeptanz von neuen Produkten täuschen können, erfahren innovative Unternehmen allenthalben. Der vom Erfolg so sehr verwöhnte Polaroid-Konzern hatte riesige Summen in ein Projekt gesteckt, von dem jeder hatte glauben müssen, daß es zu einem wahren Renner werden müsse, den Polaroid-Kinofilm. Wie bei den stehenden Buntbildern der beliebten Sofortbild-Kamera sollten nun auch die Filmer ihr Werk schon ein paar Minuten nach der Aufnahme betrachten können. Als diese Entwicklung in Angriff genommen wurde, waren die elektronischen Kameras und Videogeräte allenfalls für Fernsehanstalten erschwinglich. Daß deren Preise einmal drastisch sinken könnten, galt als ausgeschlossen. Doch sie purzelten und taten dies just zu dem Zeitpunkt, da Polaroids nicht gerade billiges Sofort-Kinofilm-System marktreif geworden war.

Die Bildplatte stand aus dem gleichen Grund — zunächst – auch unter keinem guten Stern. Gerettet wurden die Entwicklungskosten von den CDSchallplatten, von denen sich der Innovator anfangs nichts versprochen hatte. Der CD-Idee steht allerdings bereits der nächste Konkurrent ins Haus, der digitale Kassettenrecorder. Sein Vorteil: Er kann die Musik nicht nur abspielen, sondern auch aufnehmen.

Noch vermag niemand abzuschätzen, ob der Bildschirmtext der Deutschen Bundespost einmal zu den erfolgreichen Innovationen der achtziger Jahre gezählt werden wird. Computernetze, innerbetriebliche wie weltumspannende, haben sich längst durchgesetzt, sind lebenswichtig für die moderne Wirtschaft und die wissenschaftlichen Zentren unserer Tage geworden. Für den Informationstransfer also besteht nach wie vor großer Bedarf. Doch ob er bis in die Privatwohnung reichen soll, ist kaum abzuschätzen. Das Bankgeschäft an der Tastatur, der Warenhauskatalog auf dem Bildschirm, Anzeigen auf dem Monitor, die sowieso in der Zeitung stehen, und Nachrichten, die man am Fernsehen ohnehin vorgelesen bekommt — das alles ist nicht sonderlich attraktiv.

Datenbanken, die nicht nur professionellen Benutzern zur Verfügung stehen, das laufend aktualisierte elektronische Konversationslexikon etwa, werden dort, wo sie schon angeboten werden — Beispiel USA —, von Privatpersonen kaum benutzt. Wer weiß, vielleicht überschätzen wir den Wissensdurst unserer Mitmenschen.

Veteran auf der Liste der zu erwartenden technischen Neuerungen ist das Telefon, an dem der Teilnehmer vom anderen Ende nicht nur zu hören, sondern auch zu sehen ist. Kaum war die Braunsche Röhre für das Fernsehen entdeckt, konnten Besucher der Berliner Funkausstellung 1934 per Bildtelefon miteinander kommunizieren. Bis heute aber ist es ein Ausstellungsspektakel geblieben. Viel Hoffnung besteht für den technischen Ladenhüter wohl nicht mehr. Wer Abend für Abend Menschen am Bildschirm betrachtet, findet Gesprächspartner auf der Mattscheibe nicht mehr sonderlich sehenswert.

Sind zur Zeit entscheidende technische Innovationen in Sicht? Nach allem Gesagten mag diese Frage absurd klingen. Gestellt werden aber muß sie, jeden Tag auf’s neue, von Industrie, Wirtschaft und Politik, so wenig zuverlässig auch die Antworten ausfallen mögen. Freilich beziehen sich die wichtigen Voraussagen ohnehin auf nicht allzu große Zeiträume. Und da ist es halt wie mit der Wetterprognose — je kurzfristiger, desto brauchbarer.

Die folgenreichsten technischen Veränderungen hat unser Jahrzehnt auf dem Gebiet der High-Tech erlebt, und dies wird sich mit großer Wahrscheinlichkeit noch eine Weile fortsetzen. Vor allem die Robotik dürfte erst am Anfang ihrer Entwicklung stehen. Daß es mit den Robotern anfangs so schleppend vorwärts ging, hatte einen unerwarteten Grund: Es stellte sich heraus, daß nicht etwa die Tätigkeiten, die uns ais besonders hochwertig vorkommen, nämlich die vom Großhirn gesteuerten wie das Rechnen oder logische Schließen, die größten Schwierigkeiten bei ihrer maschinellen Simulation bereiten. Als widerspenstig erweisen sich gerade die Fähigkeiten, die aus den alten Regionen des Denkorgans gespeist werden, so simple Dinge wie Handbewegungen, das Laufen oder das Erkennen einfacher Formen. Hier aber hat die Technik enorme Fortschritte gemacht. In Sicht ist zum Beispiel der Roboter für den Warenversand. Er wird uneinheitlich geformte Gegenstände optimal in einem Laderaum stapeln können. Für die Texterfassung für Datenbanken und Verlage sind Lesemaschinen vonnöten, die nicht nur auf ein paar Schrifttypen und -großen fixiert und nicht so fehleranfällig sind wie die gegenwärtig angebotenen Geräte.

Als Ende der fünfziger Jahre die ersten Computer verkauft wurden, konnten nur Programmierer mit ihnen umgehen. Kein Wunder, daß Utopisten wähnten, bald würde jeder Mensch die Kunst des Programmierens beherrschen müssen. Es ist anders gekommen. Computer stehen in fast jedem Büro und werden von Personen bedient, die nicht einmal eine vage Vorstellung von einem Computerprogramm haben. Gerade in den letzten Jahren sind die Rechner mehr und mehr der Bequemlichkeit des Benutzers angepaßt worden. Was einer zu tun hat, um die Maschine zu der einen oder anderen Tätigkeit zu bewegen, tippt er in gewöhnlicher Umgangssprache auf die Tastatur. Und wo der Kürze halber bestimmte Befehle mit einem Tastendruck gegeben werden müssen, wird dem Benutzer ausführlich am Bildschirm erklärt, was er zu tippen hat. Einfacher wäre es nur noch, wenn wir dem Gerät sagen könnten, was es tun soll. Solche Sprachein- und -ausgäbe ist im Prinzip ein seit langem gelöstes Problem. Im Jahre 1956 führte Claude Shannon am Bell-Laboratorium staunenden Besuchern vor, wie er sich mit einer Maschine unterhielt. Doch nur er wurde von dem Apparat verstanden, und auch nur, wenn er nicht gerade eine Erkältung hatte.

Diese Unzulänglichkeit plagt die Speechprocessor-Spezialisten immer noch. Mit dem Sprechen hat der entsprechend ausgestattete Computer kein Problem mehr. Sein Dialekt ähnelt immer weniger den blechernen Science-fiction-Stimmen. Aber es fällt ihm schwer, die sprachbestimmenden Formanten aus dem Frequenzgemisch, das unsereiner von sich gibt, herauszufischen. Zu allem Überfluß sind diese auch noch von Sprecher zu Sprecher so verschieden wie Fingerabdrücke. Daß wir überhaupt einander verstehen, grenzt an ein Wunder. Dieses jedoch glauben Ingenieure auch an Maschinen vollbringen zu können. Kurze gesprochene Befehle zum Beispiel befolgen experimentelle Geräte in den Labors der Industrie schon recht akkurat.

Als Computer noch ganze Stockwerke füllten, wurden sie gerne „Elektronengehirne“ genannt, und Philosophen beschäftigten sich mit der Frage, ob eine Maschine ein Bewußtsein haben könne. Der Gedanke, die rechnenden, logisch schließenden und in begrenztem Rahmen gar lernenden Automaten müssten Ähnlichkeit mit dem menschlichen Gehirn haben, lag nahe und inspirierte Wissenschaftler, sich über künstliche Intelligenz Gedanken zu machen. Inzwischen sehen wir Elektronenrechner viel nüchterner, aber das Forschungsgebiet „Künstliche Intelligenz“ ist geblieben. Sein Name hat zu Mißverständnissen auch unter Fachleuten geführt. Manche eher abenteuerlichen Versuche, etwa das Bestreben, ausgerechnet in der psychiatrischen Sprechstunde einen Computer als Therapeuten einzusetzen, nagten am guten Ruf der neuen Disziplin. Doch sie hielt sich wacker und brachte inzwischen außerordentlich nützliche Programme hervor, die „Expertensysteme“.

Die Idee, Expertenwissen so zu speichern und zu strukturieren, daß es von denen, die Expertenrat benötigen, abgerufen werden kann — sogar mit nicht sonderlich präzisen Fragen -, lag nahe. Ihre Ausführung stellte extrem hohe Ansprüche an die Programmierer. Expertensysteme für Ärzte, für Computerbenutzer, für die Reparaturcrew auf einer Ölbohrinsel oder für Laboranten in Forschungsinstituten haben sich längst bestens bewährt. Dennoch steckt die Entwicklung noch in den Kinderschuhen. Expertensysteme, die lernen und sich deshalb in der Praxis laufend selbst verbessern können, stehen auf dem Forschungsprogramm. Wer hier für die nahe Zukunft beachtliche Fortschritte prognostiziert, wird kein allzu großes Wagnis eingehen. In der Medizin steht die Entwicklung des Aids-Impfstoffes bevor, für die saubere Umwelt stehen allerlei neue Abgasfilter auf dem Programm, und Gott weiß, was die Kriegsindustrie in aller Welt ausbrüten wird. Qui vivra, verra.

Schreiben Sie einen Kommentar