Automatisierung und Künstliche Intelligenz
Mit Aufkommen der ersten Digitalcomputer Mitte des 20. Jahrhunderts geriet „echte“ künstliche Intelligenz zum ersten Mal in den Bereich des Machbaren. Wobei natürlich eine spannende (philosophische) Frage darin besteht, ab wann man ein Wesen (sei es biologisch oder künstlich) überhaupt intelligent nennen kann. Hierfür kann es sich lohnen, kurz in der Technikgeschichte zurückzublättern.
Schon sehr früh hat der Mensch Maschinen konstruiert, die ihm körperliche Arbeit abnehmen: Man denke z.B. an die Wind- und Wassermühlen, die es schon im Mittelalter oder sogar schon in der Antike gab. Vor allem seit dem 19. Jahrhundert haben Verbrennungs- und Elektromotoren die Alltagswelt des Menschen radikal verändert.
Auch die Idee, bestimmte Teile der geistigen Arbeit von Maschinen erledigen zu lassen ist nicht neu: Vor allem beim Rechnen hat sich der Mensch schon früh technische Hilfe gesucht: Angefangen von einfachen Hilfsmitteln wir Rechenbrettern oder dem Abakus (schon in der Antike) über mechanische Rechenmaschinen (ab dem 17. Jahrhundert) bis zum Taschenrechner (1970er Jahre) konnten immer kompliziertere Rechenoperationen mit immer weniger menschlichem Zutun durchgeführt werden.
Seit den 1940er Jahren können digitale Computer mit den entsprechenden Programmen (Algorithmen) nicht nur komplexe mathematische Rechnungen ausführen sondern auch andere Arbeiten erledigen, die vorher allein dem menschlichen Geist vorbehalten waren. Dazu gehört z.B., einen Text nach bestimmten Wörtern zu durchsuchen, einen Roboter zu steuern oder ein Flugzeug über weite Strecken selbstständig auf Kurs zu halten (Autopilot). Mit dem Fortschritt der Informatik konnten immer komplexere Tätigkeiten in algorithmischer Form bearbeitet werden, etwa Schach zu spielen oder mathematische Behauptungen zu beweisen.
Es ist schwierig festzulegen, ab welchem Punkt „gewöhnliche Automatisierung“ aufhört und „Künstliche Intelligenz“ eigentlich beginnt. Vor allem auch deshalb, weil es extrem schwierig ist, den Begriff „Intelligenz“ selbst in exakter Weise zu definieren.
Mehr noch: Sobald ein Computer mit einem entsprechenden Programm in der Lage ist, eine bestimmte, bisher dem Menschen vorbehaltene Tätigkeit auszuführen, regen sich automatisch Zweifel, ob es für die jeweilige Tätigkeit tatsächlich "echte Intelligenz" notwendig ist. So hätte im Jahr 1900 wahrscheinlich kaum jemand angezweifelt, dass man zum Schachspielen "echte Intelligenz" braucht. Spätestens nachdem man leistungsfähige Schachcomputer im Spielwarenladen kaufen konnte, dürfte sich diese Einstellung bei vielen Menschen geändert haben, was sich in der folgenden (nicht ganz ernst gemeinten) Definition ausdrückt: "Künstliche Intelligenz ist, was ein Computer nicht kann."
Ob der Begriff „Künstliche Intelligenz“ tatsächlich objektiv eine ganz bestimmte Qualität von Software beschreibt, kann vor diesem Hintergrund zumindest in Frage gestellt werden. Vielmehr wird er typischerweise gebraucht, um verschiedene mathematisch-informatische Methoden und Ansätze unter einem griffigen (und werbewirksamen) Oberbegriff zusammenzufassen. Bezeichnend mag dabei sein, dass der Begriff (in der englischen Form „Artificial Intelligence“) zum ersten Mal 1955 in einem Antrag auf Forschungsgelder auftaucht. Andere Begriffe, wie etwa "Expertensysteme" oder "Maschinelles Lernen" beschreiben die verschiedenen Algorithmen zum Teil deutlich konkreter, sind aber nicht ganz so sehr geeignet, um die Phantasie von Lesern (bzw. Geldgebern oder Kunden) anzuregen.