Wie der Computer zum intelligenten Wesen wird

Immer mehr Unternehmen setzten zur Verbesserung ihrer Wertschöpfung auf den Einsatz von Künstlicher Intelligenz. Doch nach welchen Prinzipien funktionieren eigentlich KI-Programme und für welche Zwecke lassen sie sich nutzen? Aufschluss darüber gibt ein historischer Überblick.

Den Grundstein für das Fachgebiet der Künstlichen Intelligenz legte der britische Mathematiker Alan Turing im Jahr 1936. Turing bewies, dass eine Rechenmaschine – eine sogenannte «Turingmaschine» – in der Lage ist, kognitive Prozesse auszuführen. Die Bedingung dafür ist, dass sich diese Prozesse in mehrere Einzelschritte zerlegen lassen und durch einen Algorithmus dargestellt werden können. 1950 entwickelte Turing ein Test-Verfahren, um zu prüfen, ob ein Computer selbständig denken kann. Hierfür führt eine Versuchsperson mit zwei unsichtbaren Gesprächspartnern ein Gespräch. Danach muss die Versuchsperson entscheiden, welcher der beiden Gesprächspartner der Computer war. Wenn mindestens 30 Prozent der Versuchspersonen den Computer nicht erkennen, gilt der Test als bestanden.

Aus Konferenz entsteht erstes KI-Programm.
Der Begriff «Künstliche Intelligenz» trat erstmals im Jahr 1956 am «Summer Research Project on Artificial Intelligence» in Erscheinung. Dies war eine ambitionierte, sechswöchige Konferenz, die am Dartmouth College in New Hampshire in den USA stattfand. Die Konferenz gilt als Geburtsstunde für das Fachgebiet «Künstliche Intelligenz» als wissenschaftliche Disziplin. Die Konferenzteilnehmer waren davon überzeugt, dass Denkprozesse auch ausserhalb eines menschlichen Gehirns möglich sind. Als Resultat der Konferenz entwickelten der Informatiker Allen Newell, der Programmierer Cliff Shaw und der Wirtschaftswissenschaftler Herbert Simon das Programm «The Logic Theorist». Die Aufgabe des Programms war es, mithilfe von Logik und Vernunft mathematische Theoreme zu beweisen. Es wird als «erstes Programm für künstliche Intelligenz» bezeichnet.

Im Jahr 1966 entwickelte der deutsch-amerikanische Informatiker Joseph Weizenbaum den weltweit ersten Chatbot Eliza. Dieser war so programmiert, dass der Eindruck entstand, er könne die Rolle eines Psychotherapeuten einnehmen. Das Programm reagierte allerdings lediglich auf Schlüsselworte und antwortete häufig mit Fragen oder allgemeinen Phrasen. Auch war der Dialog mit dem Chatbot nur über eine Computertastatur möglich. Weizenbaum war überrascht, mit welch einfachen Mitteln man Menschen die Illusion vermitteln kann, ein Gespräch mit einem Partner aus Fleisch und Blut zu führen. Viele Probanden hatten nämlich den Eindruck, der virtuelle Psychotherapeut hätte Verständnis für ihr Problem.

Wird menschliche Intelligenz überflüssig?
Die 70er-Jahre waren geprägt von einem wissenschaftlichen Streit über das Potenzial von Künstlicher Intelligenz für praktische Anwendungen. Bezugnehmend auf die Arbeiten von Alan Turing waren Allen Newell und Herbert Simon von der Carnegie Mellon University der Ansicht, dass es für den Vollzug von Denkprozessen kein menschliches Gehirn braucht. Denken sei nichts anderes als Informationsverarbeitung und Informationsverarbeitung ein Rechenvorgang, bei dem Symbole manipuliert werden. Eine klare Gegenposition zu dieser Meinung ergriff der Philosoph John Searle. Gemäss der Auffassung von Searle können Maschinen mittels Künstlicher Intelligenz die kognitiven Fähigkeiten von Menschen zwar simulieren und nachahmen, sie sind aber nicht wirklich intelligent, sondern scheinen lediglich intelligent zu sein.

Als Ergebnis der wissenschaftlichen Auseinandersetzung stehen sich bis heute mit der schwachen und starken Künstlichen Intelligenz zwei konträre Positionen gegenüber. Die Verfechter der starken Künstlichen Intelligenz plädieren dafür, dass KI-Maschinen in demselben Sinn intelligent sind und denken können wie Menschen. Die Vertreter der schwachen Künstlichen Intelligenz sind der Ansicht, dass menschliches Denken gebunden ist an den menschlichen Körper, insbesondere an das Gehirn.

Erstes Expertensystem für medizinische Zwecke.
An der Universität Stanford wurde 1972 der Grundstein für sogenannte Expertensysteme gelegt. Expertensysteme sind Computerprogramme, die Menschen bei komplexen Problemstellungen unterstützen. Entwickelt wurde das System MYCIN, das Künstliche Intelligenz erstmals für medizinische Zwecke einsetzen sollte. Das neue Expertensystem war in der Lage, die Diagnose und Therapie von Infektionskrankheiten zu unterstützen, indem es aufgrund von zahlreichen Parametern geeignete Antibiotika vorschlug. MYCIN wurde allerdings nie in der Praxis eingesetzt. Die Skepsis war zu gross und es mangelte an technischen Möglichkeiten, um das System für eine breite Anwendung verfügbar zu machen.

Bei der historischen Betrachtung der Entwicklungen im Bereich der Künstlichen Intelligenz wird oft die Auffassung vertreten, dass sich die Forschung in diesem Gebiet wellenartig entwickelte. Eine Periode, in denen es innovative Neuerungen gibt, bezeichnet man als KI-Sommer und für Zeiträume, in welchen die Entwicklung stagniert, verwendet man den Begriff KI-Winter. So werden beispielsweise auch die 80er-Jahre als KI-Winter aufgefasst. Weil die hohen Erwartungen an die KI-Forschung nicht erfüllt wurden, stoppten viele Regierungen, allen voran die USA, ihre Forschungsgelder. Ausgehend von der Zeit des kalten Krieges hatte die USA enorme Geldsummen investiert zur Bereitstellung eines Übersetzungssystems, das Dokumente in Russischer Sprache automatisiert übersetzen sollte. Doch die KI-Forscher hatten die Komplexität der Aufgabe unterschätzt.

In den 80er-Jahren stellten KI-Forscher immer wieder fest, dass Aufgaben, die für Menschen sehr einfach sind, für Computer eine grosse Herausforderung darstellen und umgekehrt. So ist es für Menschen schwierig, komplexe mathematische Probleme zu lösen, während Computer Mühe damit haben, Bilder oder Sprache zu erkennen oder Bewegungen auszuführen. Dieses Prinzip wurde unter anderem von Hans Moravec beschrieben und wird auch als Moravecsches Paradox bezeichnet.

Sprachcomputer auf Basis von neuronalem Netzwerk.
Einen positiven Impuls für das Fachgebiet der Künstlichen Intelligenz gab es im Jahr 1986 mit dem Programm «NETtalk». Denn damit brachten Terrence J. Sejnowski und Charles Rosenberg den Computer zum Sprechen. Das Programm konnte Wörter lesen und korrekt aussprechen sowie das Gelernte auf ihm unbekannte Wörter anwenden. «NETtalk» gehörte damit zu den frühen sogenannten neuronalen Netzwerken. Das sind Programme, die mit grossen Datenmengen gefüttert werden und darauf aufbauend eigene Schlüsse ziehen können.

Bei der Betrachtung der historischen Entwicklung von Künstlicher Intelligenz fällt der Fokus auch auf die beachtliche Leistung von Rechnern, die bei Brett-, Computer- oder anderen Spielen gegen Menschen spielen. Es zeigt sich immer wieder, dass moderne Computer sogar die besten menschlichen Spieler übertreffen können. Bereits 1997 konnte die Weltöffentlichkeit beobachten, wie das IBM-System «Deep Blue» den russischen Schachweltmeister Gary Kasparov besiegte. Und im Jahr 2011 gewann das Computerprogramm «Watson» (ebenfalls IBM) in der amerikanischen Quiz-Show Jeopardy gegen die besten Quizmeister. 2016 übertraf die Deepmind-Software AlphaGo von Google den südkoreanischen Spitzenspieler Lee Sedol bei einer Spielpartie auf dem chinesischen Bettspiel Go. AlphaGo schlug Sedol 4:1. Das Resultat erstaunt angesichts der Komplexität des Spiels. Hat der erste Spieler bei Schach 20 mögliche Züge zur Auswahl, sind es bei Go 361 Züge.

Schnellere Rechner fördern maschinelles Lernen.
Ungefähr ab dem Jahr 2010 begann eine Phase der Kommerzialisierung von KI-Anwendungen. Als besondere Innovationen für den Alltagsgebrauch der Menschen begannen sich die Sprachassistenten Siri und Alexa zu etablieren. Im Geschäftsbereich schritt die Automatisierung von Arbeitsprozessen voran und das Internet der Dinge konnte für immer mehr Anwendungsbereiche genutzt werden. Dank der immer besseren Rechnerleistung konnten die Computer immer besser für das maschinelle Lernen genutzt werden. Beim maschinellen Lernen generiert der Computer selbstständig Wissen aus Erfahrungen. Er kann damit auch eigenständig Lösungen für neue und unbekannte Probleme finden. Auch das Deep Learning erreichte einen neuen Boom. Deep Learning ist ein Teilgebiet des maschinellen Lernens, bei welchem neuronale Netze in mehreren Schichten genutzt werden. Es entsteht eine umfangreiche innere Struktur des Netzes. Deep Learning kann zum Beispiel dafür genutzt werden, Bilder zu erkennen, Texte zu verstehen oder präzise Entscheidungen zu treffen.

Grosse Datenmengen zur Effizienzsteigerung nutzen.
Ab dem Jahr 2020 ergaben sich im Bereich Künstliche Intelligenz viele weitere Trends. Die Unternehmen begannen sich zum Beispiel auf die Machine Learning Operations (MLOps) zu konzentrieren. In einem funktionsübergreifenden und kooperativen Prozess soll das maschinelle Lernen für möglichst viele Anwendungsgebiete in einem Unternehmen produktiv genutzt werden. Die Unternehmen sollen aus ihren Daten wertvolle Informationen gewinnen können, beispielsweise, wenn es um Workflows, Traffic-Muster und das Bestandsmanagement geht. Neue Möglichkeiten zur Effizienzsteigerung im Supply Chain Management ergeben sich durch die immer bessere Verfügbarkeit von digitalen Daten über die Kosten und die Lieferbarkeit von Gütern und Ressourcen. Bereits heute stellen die B2B-Plattformen wlw (ehemals «Wer liefert was») und EUROPAGES grosse Mengen solcher Daten zur Verfügung. Das Unternehmen Visable als Träger der beiden Plattformen nutzt selber KI-Programme zur Pflege der Daten, beispielsweise zur Bereitstellung von Schlüsselwörtern für die Datensuche oder zur Eliminierung von Daten-Duplikaten.

 

Über Visable:
Visable unterstützt industriell tätige Unternehmen, deren Produkte und Dienstleistungen für Einkäufer international zugänglich zu machen. Als speziell auf Geschäftskunden zugeschnittene Verbindung aus eigenen B2B-Plattformen und Online-Marketing-Services wie zum Beispiel Google Ads und Retargeting bietet das Unternehmen ein breit gefächertes digitales Portfolio zur Reichweiten-Steigerung im Internet.

Zu den von der Visable GmbH betriebenen Plattformen gehören wlw («Wer liefert was»), heute die führende B2B-Plattform in der D-A-CH-Region sowie die europäische B2B-Plattform EUROPAGES, auf der rund 3 Millionen Firmen registriert sind. Zusammen erreichen die Plattformen monatlich bis zu 3.6 Millionen B2B-Einkäufer, die nach detaillierten Unternehmens- und Produktinformationen suchen.

Mit seinen Online-Marketing-Services bietet Visable Unternehmen zusätzliche Möglichkeiten, ihre Reichweite im Internet zu erhöhen.

Das Unternehmen Visable entstand als Antwort auf die Herausforderungen der Internationalisierung und Digitalisierung im B2B-Bereich. Visable ist in Hamburg, Berlin, Münster und Paris präsent und verfügt über eine Schweizer Zweigniederlassung in Baar. Insgesamt sind rund 480 Mitarbeitende beschäftigt. Als gemeinsames Dach für die Marken wlw und EUROPAGES baut Visable seine Plattformen und Online-Marketing-Services kontinuierlich aus.

Vom Verlagshaus zur Tech-Company.
Wie wird aus einem ursprünglich traditionell ausgerichteten Unternehmen eine erfolgreich wachsende Tech-Company? Dieser Frage geht Peter F. Schmid, CEO des Unternehmens Visable, in seinem neuen Buch «Mission Wandel» nach. 1932 als Herausgeber des Nachschlagewerks «Wer liefert was» gegründet, hat sich Visable in den vergangenen Jahren von einem Verlag zu einem agilen internationalen Internet-Unternehmen gemausert. Den weitreichenden Change-Prozess beschreibt Schmid in seinem neuen Buch «Mission Wandel: Von einem Old-School-Unternehmen zu einer Tech-Company – die Geschichte einer Transformation». Darin erzählt er von Erfolgen, Wachstumsschmerzen und den Herausforderungen des Online-Geschäfts. «Mission Wandel» ist erhältlich im Springer Gabler Verlag.

LOGISTIK express Journal 4/2022

Translate »