Vor langer, langer Zeit...
Die Geschichte der Künstlichen Intelligenz begann lange bevor John McCarthy ihr 1956 einen Namen gab.
Vielleicht schon damals, als einer unserer Vorfahren bei Feuerschein in seiner Höhle saß, einen Stein in seinen Händen hielt und dachte:
„Hmmn, den könnte ich optimieren!“
Die KI ist so als wie die Menschheit selbst – von den ersten Werkzeugen bin heute.
Lange vor unserer Zeitrechnung entwickelten Menschen „biologische Machine-Learning-Algorithmen“: Sie erkannten Muster – etwa, dass dunkle Wolken Regen bedeuten – und bauten damit implizit Vorhersagemodelle.
(Ja, auch unsere Vorfahren hatten schon ein gewisses „Data-Driven-Thinking“ – halt nur ohne Laptop, Tablet und Co.)
Mythos und Mechanik - Der Traum vom künstlichen Wesen
Vor rund 2000 Jahren lebte die Idee von KI in der griechischen Mythologie.
Dem Mythos zufolge war Talos eine von Hephaistos (in Zeus‘ Auftrag) geschaffene Maschine. Und Talos hatte eine Mission: er sollte Kreta vor Eindringlingen schützen und nebenbei dafür sorgen, dass die Kreterinnen und Kreter die göttlichen Gesetze einhielten. Und diese Aufgabe verfolgte er fehlerlos, unermüdlich und ohne Pause.
➡️ Die erste KI für Verteidigung? Vielleicht!
Pygmalion hingegen träumte von etwas anderem: einer selbst erschaffenen Figur, die lebendig wird – Galatea
Keine Siliziumchips, nur Marmor und Wille.
➡️ Nicht nur der Gedanke eines künstlichen Wesens – sondern auch die Hoffnung, dass menschliche Schöpfung mehr sein könnte als bloße Mechanik.
Heron von Alexandria brachte den Traum auf den Boden:
Tempeltüren, die sich durch Dampfkraft öffneten.
Mechanische Vögel, die zwitscherten.
Automatische Diener, die sogar Wein ausschenken konnten.
➡️ Das Staunen über künstliche Bewegung brauchte keine Götter mehr. Der Mensch rang den Göttern die Macht ab.
Jetzt machen wir einen zeitlichen Sprung ins Mittelalter – nicht immer so dunkel, wie man glaubt.
Im 12. Jahrhundert konstruierte Ismail al-Jazari komplexe Wasseruhren, programmierbare Musikautomaten und mechanische Vorrichtungen mit komplexen, verstellbaren Abläufen.
➡️ War das schon erste Programmierung?
Aber zumindest der Gedanke war geboren: Verhalten lässt sich durch strukturierte Anweisungen steuern.
Leonardo da Vinci – natürlich – entwarf Ende des 15. Jahrhunderts einen mechanischen Ritter, der sich selbstständig bewegte.
Diese Maschine imitierte menschliche Gesten – nicht göttlich belebt wie Galatea, sondern gesteuert durch Zahnräder und Seilzüge
➡️ Der Traum vom künstlichen Wesen rückte damit ein weiteres Stück weg vom Mythos und hin zur Mechanik.
1767 dann der „Schachtürke“ von Wolfgang von Kempelen:
Ein Gerät, das viele glauben ließ, eine Maschine könne strategisch denken.
Das Innere? Eine Blackbox – oder besser gesagt: ein menschlicher Schachmeister.
➡️ Die Begeisterung zeigte: Die Idee der Künstlichen Intelligenz war verführerisch – noch eine Täuschung, aber der Same war gesät.
All diese Beispiele aus einer lang vergangenen Zeit machen uns klar:
Der Traum von künstlichen, intelligenten Gefährtinnen und Gefährten war schon da, lange bevor er technisch umsetzbar wurde.
Es sollte aber noch bis ins ins 17. Jahrhundert dauern, bis Gelehrte nicht nur die äußere Inszenierung sondern das Denken selbst als mechanischen Prozess zu begreifen begannen.
Mechanisierung des Denkens - Die stille Revolution im Kopf
Während mancherorts die Zahnräder klackerten und Automaten das Publikum in ihren Bann zogen, begann in den Studierzimmern des 17. Jahrhunderts etwas Tieferes: Das Denken selbst wurde zum Gegenstand technischer Überlegungen.
Den Anfang machte René Descartes. In den 1630er-Jahren beschrieb er Tiere als komplexe Maschinen – und stellte damit unausgesprochen die Frage:
➡️ Könnte auch das menschliche Denken mechanisch erklärbar sein?
Blaise Pascal baute 1642 die Pascaline – eine Rechenmaschine, um seinem Vater bei Steuerberechnungen zu helfen.
Mit der Pascaline war es möglich, 2 Zahlen automatisch zu addieren – und über Umwege auch zu subtrahieren.
(Ja klar, heute macht das dein Smartphone – aber damals war das echt revolutionär.)
➡️ Rechen war nicht länger nur geistige Arbeit – sondern konnte an Maschinen ausgelagert werden.
Aber die – aus meiner Sicht – wegweisendste Idee in Richtung digitale Computer und damit KI hatte wohl Gottfried Wilhelm Leibniz in den Jahren 1696 und 1697:
Er erfand das Binärsystem zwar nicht (diese Ehre gebührt dem spanischen Kirchenmann Juan Caramuel), aber er beschrieb das Rechnen mit 0 und 1 und erfand sogar ein passendes Rechengerät. Außerdem grübelte er darüber, wie man das System bekannt und beliebt machen könnte.
Da war er wohl etwas seiner Zeit voraus, der Gute.
Und er träumte von einer characteristica universalis: einer universellen Zeichensprache des Denkens.
➡️ Seine Vision: Streitfragen durch Rechenvorgänge entscheiden – „Calculemus!“
➡️ Seine Hoffnung: Wenn Denken sich in Symbole übersetzen lässt, dann lässt es sich auch berechnen.
Hier, im Verborgenen der kerzenbeschienenen Studierzimmer mit ihren mathematischen und philosophischen Debatten passierte eine stille Revolution: Es entwickelte sich die Vorstellung, dass Denken ein formalisierter, strukturierter und regelgeleiteter Prozess ist – und damit etwas, das sich prinzipiell formalisieren und mechanisieren lässt.
Die Idee war also geboren, doch sie brauchte noch ein Gefäß…
… Wenn Denken sich in Regeln fassen lässt, stellt sich unweigerlich die Frage:
Ist es möglich, dass eine Maschine diese Regeln ausführt?
Im 19. Jahrhundert wagten Ada Lovelace und Charles Babbage eine Antwort.
Programmierbarkeit - Die Maschine als Denkmodell
Denken lässt sich also in Regeln fassen.
Im 19. Jahrhundert stellte sich darauf aufbauen eine neue, waghalsige Frage
🤔 Kann eine Maschine nicht nur rechnen . sondern auch Regeln ausführen?
Charles Babbage entwarf ab den 1860er-Jahren die Analytical Engine – eine mechanische „automatische Rechenmaschine“ mit Rechenwerk, Speicher, Eingabe und Ausgabe.
➡️ Die zentralen Elemente moderner Computer – nur aus Metall und mit Lochkarten gesteuert. (Nie fertiggestellt – aber ihr Entwurf war entscheidend.)
Auftritt Ada Lovelace! Eine der wenigen bekannten Frauen im Dunstkreis von IT und KI.
Mit 17 Jahren ist sie von Babbages Ideen fasziniert. Sie erkannte, dass die Maschine mehr sein könnte, als ein automatischer Zahlenrechner.
➡️ Sie verstand: Maschinen können mit Symbolen operieren.
➡️ Sie war die erste Person, die das Konzept der Programmierung verstand.
➡️ Sie schrie den ersten Algorithmus der Geschichte und damit das allererste Computerprogramm.
➡️ Die Programmiersprache Ada wurde nach ihr benannt.
Noch lebten Computer und Programmierung nur in der Theorie, aber etwas grundsätzliches ist geschehen:
Die Maschine wurde nicht länger als einfaches Werkzeug gedacht, sondern als System zur Verarbeitung von Regeln und Symbolen.
Das analytische Denken – also die Vorstellung, dass komplexe Prozesse sich in strukturierte, ausführbare Schritte zerlegen lassen – erhielt zum ersten Mal eine konkrete technische Form.
Logik als Kalkül -Wenn Denken zu Algebra wird
Während also Ingenieurinnen und Ingenieure wie Lovelace und Babbage Maschinen bauten, arbeiteten andere daran, diese Regeln präzise zu formulieren.
Denn wenn Denken formalisiert werden soll, braucht es eine Sprache, die frei von Mehrdeutigkeit ist. Es braucht eine Mathematik des Schlussfolgerns.
Eine wichtige Figur dieser Zeit war George Boole.
Aus dem Mathe- und Informatik-Unterricht ist er uns ja gut bekannt als der Erfinder der Booleschen Algebra bzw. Booleschen Logik.
Boole zeigte 1854: logische Aussagen lassen sich algebraisch darstellen und berechnen – Wahr und Falsch als 0 und 1.
Ab diesem Zeitpunkt konnte Logik mathematisch behandelt werden und war nicht mehr nur ein philosophisches Konstrukt – plötzlich wurde es möglich, mit Aussagen zu rechnen.
➡️ Die Boolesche Algebra wurde zur Grundlage digitaler Computer – und damit auch der KI.
Gottlob Frege entwickelte Ende des 19. Jahrhunderts den Begriffsschrift – eine formale Sprache, die komplexe Aussagen und ihre Beziehungen abbilden konnte.
➡️ Die moderne Prädikatenlogik war geboren. Damit wurde Frege einerseits der Begründer der modernen Logik, andererseits führte dieser Geniestreich in die Computerwelt der Gegenwart.
Bertrand Russel und Alfred North Whitehead versuchten sich in ihrem monumentalen Werk Principia Mathematica (1910 – 1913) an der Herausforderung, die gesamte Mathematik auf logische Axiome zurückzuführen.
➡️ Das Projekt scheiterte – aber es zeigte: Denken lässt sich als System von Symbolen und Regeln Begreifen.
… Ein weiterer Schritt in Richtung KI war getan.
David Hilbert war einer der einflussreichsten Mathematiker des 20. Jahrhunderts. Er forderte ein umfassendes Programm zur vollständigen Formalisierung der Mathematik – und er stellte die entscheidende Frage:
➡️ Gibt es ein allgemeines Verfahren, das jede mathematische Aussage mechanisch auf ihre Gültigkeit überprüft?
➡️ Das Entscheidungsproblem war geboren.
Mit diesen Entwicklungen in Theorie und Praxis existieren nun zwei Voraussetzungen für die Entwicklung von KI:
eine formal präzisierte Logik – und die Vision eines allgemeinen mechanischen Verfahrens zur Anwendung dieser Logik.
Was jetzt noch fehlt: Die Antwort auf die Frage: Ist ein solches Verfahren überhaupt möglich? Und wenn ja: Wie müsste es aussehen?
Berechenbarkeit - Die Grenzen des Formalen
Durch die Erkenntnisse von David Hilbert regte sich eine Hoffnung: Die Hoffnung, dass sich die Wahrheit systematisch bestimmen lässt – Schritt für Schritt und nach festen Regeln.
Aber lässt sich diese Hoffnung – dieser Traum – in die Realität überführen?
1931 erschütterte Kurt Gödel diese Hoffnung:
Seine Unvollständigkeitssätze zeigten: In jedem hinreichend mächtigen formalen System gibt es Aussagen, die sich weder beweisen noch widerlegen lassen.
➡️ Die Mathematik kann nicht alles erklären. – Und das ist kein praktisches sondern ein prinzipielles Problem.
Alonzo Church und – unabhängig von ihm – Alan Turing gaben Mitte der 1930er-Jahre eine präzise Antwort auf Hilberts Frage.
Die Arbeiten von Alonzo Church prägen bis heute die theoretische Informatik. Er entwickelte das Lambda-Kalkül – ein formales System zur Beschreibung berechenbarer Funktionen, um die Grundlagen der Mathematik und der Logik zu untersuchen. Es gilt als Vorläufer moderner Programmiersprachen.
Alan Turing wählte einen anderen Ansatz: Er beschrieb eine abstrakte Maschine, die nach eindeutig definierten Regeln Schritt für Schritt Symbole auf einem Band verarbeitet.
Die Turingmaschine war ein Gedankenmodell, das erstmals exakt definierte, was unter „Berechenbarkeit“ verstanden werden muss.
➡️ Gemeinsam formulierten sie später die Church-Turing-These – bis heute ein zentraler Pfeiler der Informatik.
➡️ Die Erkenntnis: Es gibt Aufgaben, die Maschinen lösen können – und solche, die sie niemals lösen werden.
➡️ Hilberts Hoffnung zerbrach – aber dafür gewann man eine präzise Definition davon, was Maschinen prinzipiell leisten können.
Und genau diese formale Definition der Maschine wurde zur Grundlage der modernen Informatik – und damit auch der Künstlichen Intelligenz.
Vom Kalkül zum Netzwerk - Eine neue Metapher des Geistes
Während die Logiker das Denken als formales Kalkül beschreiben – als System von Symbolen, Regeln und Ableitungen – entstand in den 1940ern eine neue Vorstellung:
➡️ Vielleicht ist das Denken doch kein Rechenprozess mit starren Regeln sondern ein dynamisches Zusammenspiel vieler einfacher Einheiten?
1943 legten der Mediziner Warren McCulloch und der Logiker Walter Pitts den Grundstein für moderne künstliche neuronale Netze und damit für die Künstliche Intelligenz:
Sie veröffentlichten die erste mathematische Beschreibung eines neuronalen Netzes.
➡️ Sie zeigten: Neuronale Aktivität lässt sich formal beschreiben – und Netzwerke können logische Funktionen realisieren.
Norbert Wiener war ein Pionier der Computerwissenschaften und der KI-Forschung – und das, obwohl der Begriff damals noch gar nicht existierte.
1948 prägte Wiener den Begriff der Kybernetik, also der Wissenschaft von Steuerung, Rückkopplung und Selbstregulation.
➡️ Intelligenz als regulierter Prozess, den man „nachahmen“ kann.
Der Mathematiker Claude Shannon begründete 1949 die Informationstheorie – Information wurde messbar, unabhängig von ihrem Inhalt. Kommunikation, Signalübertragung und Datenverarbeitung erhielten ihr formales Fundament.
➡️ Die Grundlage für unsere heutige Informations- und Kommunikationstechnik.
Fast zur selben Zeit formulierte der Psychologe Donald Hebb das Lernprinzip:
„Neurons that fire together wire together.„
➡️ Lernen als Veränderung der Verbindungsstärke in einem Netzwerk.
➡️ Die Grundlage für die modernen Neurowissenschaften und das Machine Learning.
Damit hat sich das Denkmodell erneut verschoben:
Neben das formale Regelwerk tritt das Netzwerk. Intelligenz wird als anpassungsfähiger, lernender Prozess verstanden – nicht als statisch, sondern sich ändernd.
Verhalten als Maßstab - Wenn Maschinen spielen lernen
Zu Beginn der 1950er-Jahre verlässt die Idee der maschinellen Intelligent die Theorie.
Computer beginnen, Aufgaben auszuführen – deren Ergebnisse lassen sich beobachten und bewerten.
Intelligenz wird nicht mehr bloß berechnet – sie wird demonstriert!
Christopher Strachey schreibt ein Programm, bei dem ein Mensch gegen den Computer Dame spielen kann.
(Dame darum, weil es ein Mittelweg war – TicTacToe war zu einfach und Schach für die damaligen Computer zu komplex.)
Das Programm analysierte mögliche Züge, bewertete Positionen und traf Entscheidungen auf Basis vordefinierter Regeln.
➡️ Eines der ersten – wenn nicht das erste – Computerspiele.
Arthur Samuel baute bei IBM auf Stracheys Vorarbeiten auf und entwickelte ein Checkers-Programm.
(Checkers ist der amerikanische Ausdruck für das Damespiel)
Es lernte aus Erfahrung – der Computer spielte mit der Zeit immer besser.
➡️ Die Geburtsstunde des Machine Learning.
Diese Entwicklung verschob die Diskussion erneut:
Die Frage lautete nicht mehr nur, ob Denken formal beschreibbar oder berechenbar ist.
Denn jetzt konnte beobachtet werden, wie Maschinen strategische Entscheidungen treffen und ihr Verhalten optimieren.
Erneuter Auftritt von Alan Turing.
1950 schlug Turing vor:
➡️ Statt zu fragen: „Können Maschinen denken?“ – prüfe, ob ihr Verhalten
nicht mehr vom menschlichen zu unterscheiden ist.
➡️ Der Turing-Test war geboren.
Maschinen beginnen also, ein Verhalten zu zeigen, das als „intelligent“ interpretiert werden kann.
Und genau damit war ein entscheidender Schritt in Richtung KI getan:
➡️ Intelligenz wurde zu einer Frage des Verhaltens – beobachtbare Leistungen standen im Mittelpunkt, nicht innere Zustände oder metaphysische Definitionen.
Und an diesem Punkt, an dem Maschinen rechnen, lernen und strategisch handeln können, erhielt die Idee endlich ihren Namen.
Dartmouth 1956 - Als die Idee ihren Namen bekam
Im Sommer 1956 traf sich am Dartmouth College eine kleine Gruppe von Mathematikern, Logikern und Ingenieuren – darunter John McCarthy, Claude Shannon und Herbert Simon.
Ihr Ziel:
„Jeder Aspekt des Lernens oder jede andere Eigenschaft der Intelligenz kann im Prinzip so präzise beschrieben werden, dass eine Maschine dazu gebracht werden kann, dies zu simulieren.“
John McCarthy schlug den Begriff Artificial Intelligence vor – und damit war ein neues Forschungsfeld geboren.
➡️ Nicht aus dem Nichts, sondern als Bündelung vieler Strömungen: Logik, Berechenbarkeit, neuronale Modelle, Informationstheorie, lernende Programme – all diese Entwicklungen, die in diesem Artikel vorgestellt wurden, bündeln sich in diesem neuen Begriff.
… der Rest ist Geschichte
Fazit: Dartmouth war keine Erfindung - sondern die Geburtsurkunde einer Idee, die schon Jahrtausende alt war.
Dartmouth war kein Neuanfang.
Es war der Moment, in dem eine lang gewachsene Idee gebündelt und institutionell gefasst wurde.
Maschinen konnten rechnen, strategisch handeln, lernen, kommunizieren.
Nun erhielt diese Entwicklung einen gemeinsamen Rahmen – und einen Namen.
Die Geschichte der KI begann also nicht erst 1956.
Aber an diesem Tag erhielt sie ihren Namen.
Sie wollen mehr über KI und ihre Entwicklung wissen? Abseits vom Mainstream?
Wir freuen uns, wenn Sie sich mit uns in Verbindung setzen oder an einer unserer Veranstaltungen teilnehmen – schauen Sie dazu auch gerne in unsere Termine!
Möchten Sie Ihr Unternehmen KI-fit machen?
Wir unterstützen Sie gerne dabei, eine individuelle, verantwortungsvolle und nachhaltige KI-Strategie für Ihr Unternehmen zu entwickeln!
Eva Jaritz
