|
|
künstliche Intelligenz (KI)
I. Begriff und Gegenstand: Mit KI wird der englische Begriff "Artificial Intelligence" übersetzt. Er bezeichnet ein Forschungsgebiet mit ausgeprägt interdisziplinärem Charakter, das aber i. d. R. als Teilgebiet der Informatik eingestuft wird. - Gegenstand der KI ist die Erforschung "intelligenten" Problemlösungsverhaltens sowie die Erstellung "intelligenter" Computersysteme. Nach M. Minsky beschäftigt sich die KI in diesem Sinne mit Methoden, die es einem Computer ermöglichen, solche Aufgaben zu lösen, die, wenn sie vom Menschen gelöst werden, Intelligenz erfordern. Unklarheiten und Mißverständnisse über den Begriff der Intelligenz riefen Bestrebungen hervor, dem Forschungsgebiet einen neuen Namen zu geben (z. B. Cognology oder Intellektik). KI wird i. a. nicht exakt definiert, sondern durch Angabe der wichtigsten Methoden und Anwendungsgebiete beschrieben.
II. Entstehung: 1. Geschichte: Aufgrund von Ergebnissen der mathematischen Logik sowie Ideen von A. M. Turing, der mit Hilfe abstrakter mathematischer Modelle zu Aussagen über die grundsätzlichen Möglichkeiten von Computern kam, rückte man in den 40er und 50er Jahren von der eingeschränkten Sichtweise ab, nach der der Computer hauptsächlich als Rechenmaschine, geeignet zur Verarbeitung von Zahlen, betrachtet wurde. Computer konnten nunmehr allgemeiner als Maschinen zur Symbolverarbeitung (vgl. symbolische Programmierung) aufgefaßt werden, mit deren Hilfe sich grundsätzlich jedes Problem bearbeiten läßt. A. M. Turing, stellte aufgrund dieser allgemeineren Sicht die Hypothese auf, daß zukünftige Computer in der Lage sein würden, ein als intelligent zu bezeichnendes Verhalten zu zeigen. - Als eigentliche Geburtsstunde der KI gilt die Dartmouth Konferenz (Dartmouth Summer Project) im Jahre 1956, auf der namhafte Wissenschaftler (M. Minsky, J. McCarthy, A. Newell, H. A. Simon u. a.) ihre Forschungsaktivitäten in diesem Bereich zu koordinieren versuchten. Im Verlauf der Konferenz wurde auch der Begriff Artificial Intelligence geprägt. Parallel zur Entwicklung der auf Symbolverarbeitung basierenden KI bildete sich der Konnektionismus heraus, der die Modellierung intelligenten Verhaltens auf einer subsymbolischen Ebene verfolgt. Da die Symbolverarbeitung als Paradigma der KI oft gefordert wird (u. a. "physical symbol systems hypothesis" von A. Newell und H. A. Simon 1976), dauert die Diskussion über die Zugehörigkeit des Konnektionismus zur KI an. Eine strikte Trennung wird i. d. R. heute jedoch nicht mehr vorgenommen. Vielmehr wird der Konnektionismus als Methode der Informationsverarbeitung betrachtet, in der spezielle Modelle (konnektionistische Modelle oder neuronale Netzwerke) Anwendung in unterschiedlichsten Bereichen finden. - 2. Erste Ansätze: Die Beschäftigung mit intelligentem Problemlösungsverhalten bestand anfangs hauptsächlich darin, daß Programme für Spiele wie Schach, Dame o. a. entwickelt wurden; ihre Qualität beurteilte man am Maßstab eines menschlichen Spielers. - In den 60er Jahren versuchten dann KI-Forscher, generelle Methoden zur Problemlösung zu finden und darauf aufbauend Computerprogramme zu entwickeln, die als allgemein verwendbare Problemlöser genutzt werden sollten (vgl. auch general problem solver (GPS)). Es zeigte sich jedoch, daß allgemeine Problemlösungsstrategien für die Lösung spezieller Probleme i. d. R. nicht ausreichen. Je mehr Problemklassen ein solches Programm behandeln konnte, desto schlechter waren die Lösungen der spezifischen Einzelprobleme. - 3. Entwicklungslinien: Die Erfahrung bzgl. der Bedeutung von Spezialwissen machte eine Umorientierung notwendig: für die Entwicklung intelligenter Computersysteme mußte der zentralen Rolle des Wissens Rechnung getragen werden. Vor diesem Hintergrund wurde die Erforschung und Realisierung einer problemadäquaten Wissensrepräsentation zu einer zentralen Aufgabe der KI. Wissensbasierte Systeme entwickelten sich neben Robotics, Computervision, der Verarbeitung natürlicher Sprache (Spracherkennung, natürlichsprachliche Systeme) und dem Konnektionismus zu einem klassischen Teilgebiet der KI.
III. Teilgebiete: Die Abbildung zeigt eine mögliche Gliederung der KI. Dabei wird zwischen Methoden und Anwendungen der KI unterschieden; wichtige interdisziplinäre Verbindungen sind durch gestrichelte Linien hervorgehoben. - 1. Die bedeutendsten Methodenbereiche der KI sind die Wissensrepräsentation sowie das Schließen und Folgern zur Nutzung des repräsentierten Wissens. In beide Gebiete fließen Ergebnisse der mathematischen Logik ein; z. B. stellen Horn-Klauseln eine wichtige Form der Wissensrepräsentation dar. Für das Anwendungsfeld, das sich mit der Konstruktion wissensbasierter Systeme beschäftigt, sind die Möglichkeiten der Repräsentation von Wissen von entscheidender Bedeutung (vgl., auch knowledge engineering (KE)). - 2. Besondere Anforderungen an die sprachlichen Ausdrucksmittel bei der Erstellung von KI-Programmen, v. a. die Notwendigkeit der Symbolverarbeitung (vgl. II 1), machen spezielle KI-Programmiersprachen erforderlich. Diese stellen u. a. bestimmte Wissensrepräsentationsformen zur Verfügung und bieten Möglichkeiten zur Auswertung des Wissens, z. B. durch eingebaute Methoden des Schließens. Ein bekanntes Beispiel ist die Programmiersprache Prolog (vgl. auch logische Programmierung); dort kann das Wissen in Form von Horn-Klauseln repräsentiert und mit Hilfe der eingebauten Schlußfolgerungsmethode Resolution ausgewertet werden. Ein Prolog-Programm läßt sich auch als einfaches Deduktionssystem auffassen, weil auf der Grundlage einer Menge von Klauseln (Horn-Klauseln) ein bestimmter Beweisprozeß (Resolution) durchgeführt wird. - 3. Mit der Entwicklung solcher "automatischer Beweiser" für mathematische Theoreme beschäftigt sich das Anwendungsgebiet Deduktionssysteme. Darüberhinaus werden Deduktionssysteme auch mit dem Ziel entwickelt, die Abfragemöglichkeiten bei Datenbanksystemen, die auf dem Relationenmodell basieren, zu erweitern, z. B. um rekursive Datenbankabfragen. - 4. Eng verbunden mit Deduktionssystemen ist der Bereich der automatischen Programmierung. Auf der Grundlage einer formalen Spezifikation kann die Programmverifikation mit Hilfe eines Deduktionssystems automatisch durchgeführt werden. Daneben gehören zur automatischen Programmierung auch die automatische Erstellung von ablauffähigen Programmen aus formalen Spezifikationen sowie Korrektheitsbeweise für Hardwarekomponenten (z. B. integrierte Schaltkreise, Hardware). - 5. Bei den Methoden zum Verstehen natürlicher Sprache und ihrer Anwendung im Rahmen der Sprachverarbeitung - etwa bei der Konstruktion natürlichsprachlicher Systeme - wird auf Ergebnisse der Linguistik zurückgegriffen, z. B. aus der Syntaxtheorie. Die Spracherkennung stellt neben der Sprachanalyse eine wichtige Aufgabe innerhalb dieses Anwendungsgebiets dar. - 6. Computervision und Robotics beschäftigen sich u. a. mit der Interpretation von Daten der realen physischen Umwelt und haben deshalb einen direkten Bezug zur Physiologie. - a) Computervision behandelt die Bereiche Bildverstehen (Grauwertanalyse u. a.), Szenenanalyse (z. B. Erkennen geometrischer Objekte aus Linienzeichnungen) und Gestaltwahrnehmung (Beschreibung der inhaltlichen Bedeutung einer Szene, z. B. durch Aufbau eines semantischen Netzes). - b) Für die Objekterkennung wird auf Computervision in der Robotik zurückgegriffen. In diesem klassischen Anwendungsgebiet spielt die Planung und Kontrolle von Roboteraktionen eine wesentliche Rolle. Ergebnisse aus dem Methodengebiet Problemlösen und Planen werden hier genutzt; z. T. wurden diese Methoden auch in direktem Zusammenhang mit der Robotik-Forschung entwickelt. - 7. Im Mittelpunkt der Methodenbereiche Learning und Kognitionsmodelle stehen Besonderheiten menschlicher Intelligenz. Daher ist eine enge Kopplung mit der cognitive science gegeben. Es finden u. a. Konnektionistische Modelle Anwendung, die sich an der Funktionsweise des Gehirns orientieren. - a) Ein wichtiges Ziel des Bereichs Kognitionsmodelle ist die Erstellung von Computerprogrammen, die menschliches Problemlösungsverhalten simulieren. Ein Beispiel für ein solches Programm ist der general problem solver (GPS). - b) Gegenstand des Learning sind Methoden, die Computerprogramme in die Lage versetzen sollen, nicht nur auf der Basis des bereits vorhandenen, repräsentierten Wissens zu agieren, sondern durch Auswertung von bekannten Problemen und ihren Lösungen das Wissen selbsttätig zu erweitern. So kann es z. B. sinnvoll sein, eine Problemlösungsstrategie anhand "guter" neuer Lösungen zu verändern oder - falls keine adäquate Lösung bekannt ist - eine neue Strategie zu entwickeln. - 8. Während beim Learning menschliche Lernfähigkeit auf den Computer übertragen werden soll, wird im Rahmen des Anwendungsgebiets ICAI (intelligent computer aided instruction; vgl. CAI) versucht, Menschen bei dem Prozeß des Lernens zu unterstützen. Dabei wird auf Erkenntnisse der Pädagogik zurückgegriffen. - 9. Heuristische Suche ist ein Methodengebiet aus den ersten Anfängen der KI. Ein Problem bei der Entwicklung von Spielprogrammen ist die Suche nach "guten" Spielzügen; wegen der kombinatorischen Vielfalt explodiert die Anzahl möglicher Züge sehr schnell. Mit Hilfe von Heuristiken werden die Suchräume eingegrenzt, so daß Spielsituationen schneller und besser analysiert werden können.
IV. KI-Hardware: Für die besonderen Erfordernisse der Symbolverarbeitung (vgl. II 1) werden neue Hardwarearchitekturen entwickelt. Beispiele sind die sog. Lisp-Maschinen. In diesem Zusammenhang ist das japanische fifth generation computer project, in dem u. a. eine neue Generation von Arbeitsplatzrechnern ("Personal inference machines") für die Verarbeitung von Wissen entwickelt werden soll, von außerordentlicher Bedeutung. Dort wird versucht, logische Schlüsse, die in konventionellen Computern durch eine Vielzahl von Einzelinstruktionen realisiert werden müssen, direkt vom Prozessor ausführen zu lassen. Die Performance solcher Maschinen wird deshalb auch in LIPS gemessen (im Unterschied zu MFLOPS oder MIPS bei konventionellen Hardwarearchitekturen). Speziell auf die Anforderungen konnektionistischer Modelle sind Rechnerarchitekturen zugeschnitten, in denen viele Prozessoren (u. U. viele Tausend) parallel arbeiten und hochgradig miteinander verknüpft sind (Multi-Prozessor-Systme, z. B. connection machine von D. Hillis).
Literatur: Andriole, S. J. (Hrsg.), Applications in Artificial Intelligence, Princeton, NJ, 1985; Barr, A., Feigenbaum E. A. (Hrsg.), The Handbook of Artificial Intelligence, 3 Bände, Los Altos, Ca. 1981; Bibel, W. Siekmann, J. H. (Hrsg.), Künstliche Intelligenz (Informatik Fachberichte 59), Berlin, Heidelberg, New York 1982; Davis, R., Expert Systems: Where Are We? And Where Do We Go From Here, The AI Magazine, Menlo Park, Ca. Spring 1982, S. 3-23; Gevarter, W., Artificial Intelligence, Expert Systems, Computer Vision and Natural Language Processing, Park Ridge, NJ 1984; Grossberg, S. (Ed.), Neural Networks and naturale Intelligence, Cambridge MA 1988; Harmon, P./King K., Expertensysteme in der Praxis, 3. Aufl., München 1989; Hayes-Roth, F./Watermann, D.A./Lenat, D.B. (Eds.), Building Expert Systems, Reading MA 1983; Hecht-Nielsen, R., Neurocomputing, Reading 1990; Kurbel, K., Entwicklung und Einsatz von Expertensystemen, 2. Aufl., Berlin 1992; McClelland, J.L./Rumelhart, D. E., Parallel Distributed Processing, Vol. 2, Cambridge MA 1986; Mertens, P./Borkowski, V./Geis, W., Betriebliche Expertensystemanwendungen, 2. Aufl., Berlin 1990; Miller, R. K., Artificial Intelligence Applications for Business Management, Madison, Ga. 1984; Hennings, R. D./Munter, H., Expertensysteme (Artificial Intelligence 1), Berlin 1985; Raphael, B., The Thinking Computer, Freeman, 1976; Retti, J., u. a., Artificial Intelligence - Eine Einführung, Stuttgart 1984; Rich, E./Knight, K., Artificial Intelligence, 2. Ed., New York 1991; Minsky, M., Semantic Information Processing, Cambridge MA 1968; Minsky, M., The Society of Mind, London 1986; Nilsson, N., Principles of Artificial Intelligence, Berlin 1982; Pau, L. F., Artificial Intelligence in Economics and Management, Amsterdam 1986; Reitman, W., Artficial Intelligence Applications for Business, Ablex, NJ 1984; Rumelhart, D. E./McClelland, J. L., Parallel Distributed Processing, Vol. 1, Cambridge MA 1986; Savory, S., Grundlagen von Expertensystemen, 2. Aufl. München 1990; Schank, R./Childers P., The Cognitive Computer, Reading, Ma. 1984; Simon, H. A., The Sciences of the Artificial, Cambridge, Ma. 1981; Turing, A. M., Computing Machinery and Intelligence, in: Feigenbaum, E. A./Feldman, J., Computers and Thought, New York 1963; Waterman, D. A., A Guide to Expert Systems, 2. Aufl., Reading, Ma. 1986; Waterman, D. A./Hayes-Roth, F., Pattern-Directed Inference Systems, 1978; Winston, P. H., The Psychology of Computer Vision, New York 1975; Winston, P. H., Artificial Intelligence, 2. Aufl., Reading, Ma. 1984; Winston, P. H./Prendergast, künstliche Intelligenz (KI) A. (Hrsg.), The AI Business: Commercial Uses of Artificial Intelligence, 3. Aufl., Cambridge MA, London 1985.
<< vorheriger Begriff |
|
nächster Begriff>> |
|
|
|
Diese Seite bookmarken :
|
|