Künstliche Intelligenz: Besiegt uns jetzt der Terminator?

Wenige Themen werden so kontrovers diskutiert wie jenes der künstlichen Intelligenz. Neue Technologien bringen, wie so oft, Verunsicherungen mit sich.

Die unmittelbare Angst davor, dass Computer schlauer werden als wir Menschen, unsere Jobs übernehmen und uns schlimmstenfalls in die Bedeutungslosigkeit verdrängen könnten sind spätestens seit der humorvollen Roboterdame Sophia auf einem vorläufigen Gipfel angelangt. 
Populäre Schlagzeilen wie zum Fall der „Geheimsprache“ von Facebook-Bots tun ihr Übriges zum Zweifel an der menschlichen Kontrolle.

Die Anfänge der KI 


Auch wenn es den Anschein machen mag, ist künstliche Intelligenz keine Entwicklung der allerjüngsten Vergangenheit. Forscher arbeiten bereits seit mehr als 50 Jahren daran herauszufinden, wie das menschliche Gehirn funktioniert und in weiterer Folge daran, ihre Erkenntnisse maschinell nachzubilden.
Die künstliche Rekonstruktion menschlicher Wahrnehmung und menschlichen Handelns ist ein hochkomplexes Unterfangen, weil es auf der Expertise verschiedenster Disziplinen und Wissenschaften beruht.
Aber bedeutet dies nun, Computer werden schlauer als wir und übernehmen irgendwann die Macht?

Die Maschine ist der Schüler…

…aber der Lehrer ist ein Mensch. 
Was die zukünftigen Entwicklungen der KI angeht, so scheint sie zumindest aus aktueller Sicht viele Lebensbereiche zu verändern. Nicht aber, weil Roboter die Weltherrschaft an sich reißen.
Hinter jeder künstlichen Intelligenz stehen Menschen die diese „ins Leben“ rufen und auch wieder abschalten können. Eine vermeintlich banale Feststellung, die jedoch besonders vor dem Hintergrund oben genannter Schlagzeilen erwähnenswert ist.

Informatiker, Neurologen, Kognitions- und Sprachwissenschaftler oder Psychologen sind nur eine Auswahl der unentbehrlichen Glieder in der KI-Forschung. 
Zu ihren zentralsten Themen gehört die Frage: Ab wann ist eine Maschine intelligent?

Schon in den 50er Jahren versuchte der britische Informatiker Alan Turing diese mit einer möglichen Definition zu beantworten. Aus seinen Überlegungen resultierte der sogenannte Turing-Test. Das bis heute prominente, und nach wie vor umstrittene Verfahren, legte als Messlatte für künstliche Intelligenz die Unterscheidbarkeit von Mensch und Maschine fest.

Der Turing-TestEin Fragesteller führt „blind“ ein Interview über eine Tastatur mit zwei Testpersonen – einem realen Menschen und einer Maschine. Kann er die beiden Gesprächsverläufe am Ende nicht eindeutig zuordnen beziehungsweise unterscheiden, sei die Maschine dem Menschen ebenbürtig.


Turings Test beantwortet die Frage längst nicht zureichend, zeigt aber, dass die KI-Forschung schon wesentlicher länger als häufig angenommen Einzug hielt.

Maschinelles Lernen und wie es funktioniert

Beim maschinellen Lernen werden Erfahrungen zu Wissen verarbeitet. Das bedeutet Handlungen werden nicht 1:1 nachgestellt, viel mehr werden aus ihnen Muster und Gesetzmäßigkeiten abgeleitet. Durch sogenannte Algorithmen wird  das Gelernte von der Maschine verallgemeinert und angewendet. 
Durch jede Wiederholung (= Erfahrung) wird die Maschine intelligenter.

Um zu erläutern, wo künstliche Intelligenz längst Teil unseres Alltags ist,  benötigen wir keine Jahresberichte aus dem Silicon Valley – dafür genügt ein Blick auf’s Smartphone. 
Wer beispielsweise im Besitz eines jüngeren Modells ist, braucht es nur mehr anzusehen, wird erkannt und erhält Zugang. Das ist keine Kunst, aber das Ergebnis langer Forschung und fortgeschrittenem maschinellen Lernens – denn neben der erstmaligen Berechnung der Gesichtszüge und Proportionen, müssen für eine funktionierende Anwendung beispielsweise Faktoren wie unterschiedliche Lichtverhältnisse ausgeglichen werden. Und das ist gelernt.

Natürlich gibt es neben der Weiterentwicklung vorhandener KI-Phänomene wie Chatbots, dem simplen Beispiel der Einparkhilfe oder selbstfahrenden Autos noch viel weitreichendere Bestrebungen und Visionen.

KI kann nicht nur die Effizienz in Form von maschinellem Lernen steigern, sondern auch viele Prozesse zuverlässiger machen. 


Zum Beispiel könnte Robotik die Medizin soweit vorantreiben, dass das Risiko hochpräziser Eingriffe oder komplizierter Operationen auf ein Minimum reduziert beziehungsweise überhaupt erst ermöglicht wird. Und dies ohne dabei notwendigerweise Fachpersonal zu verdrängen. 
Ebenso können Teilschritte in Produktion und Fertigung planbarer und nahezu fehlerlos verrichtet werden.

Magazin

Andere Beiträge

This is the thumbnail of the other blogpost.
Data Literacy – der Weg zur Information

Wollen wir gewinnbringende Erkenntnisse aus Daten generieren, ist eine data-driven Culture notwendig. Doch auf dem Weg dahin, hemmt häufig ein unsicheres Gefühl im Umgang mit "Daten" den Fortschritt.

Read more
This is the thumbnail of the other blogpost.
Data Governance - Übersicht im Datendschungel

Durch den digitalen Wandel ist in Unternehmen und Organisationen mittlerweile ein Bewusstsein entstanden, dass Daten nicht ein Nebenprodukt digitaler Prozesse sind ...

Read more