Wehrlos gegen Künstliche Intelligenz, australische Forscher warnen vor intelligenten Maschinen

Nachdem der selbstlernende Supercomputer AlphaGo überraschend einen
Menschen im Spiel Go geschlagen hat, sind Forscher der University of
Sydney besorgt wegen der Fähigkeiten, die Künstliche Intelligenzen
entwickeln könnten. Die zwei Experten im Bereich selbstlernende Maschinen
der University of Sydney formulieren eine Warnung für den Umgang mit
Künstlicher Intelligenz. Sie appellieren, dass Künstliche Intelligenz
unter allen Umständen unter menschlicher Kontrolle gehalten werden muss
und schlagen in diesem Zusammenhang Verhaltensweisen im Umgang mit
Künstlicher Intelligenz vor.

Professor Dong Xu, Vorsitzender der Abteilung Computer Engineering an der
University of Sydney, betont, dass die Niederlage des Weltmeisters neue
Bedenken bezüglich der Zukunft von Maschinen mit Künstlicher Intelligenz
hervorgebracht haben. Zuvor galt das Spiel Go als zu komplex für Computer,
doch der Sieg zeigt, dass Supercomputer mittlerweile in der Lage sind,
sich stetig weiterzuentwickeln und sich durch detailreiche Analysen
eigenständig optimieren können. Deshalb beschäftigt sich Professor Dong Xu
mit der Frage, in wie weit die Fähigkeit des Selbstlernens von Künstlicher
Intelligenz kontrolliert werden muss.

Zur Zeit sind Maschinen mit Künstlicher Intelligenz besonders in der
Industrie gefragt. Sie können putzen, auf dem Feld arbeiten, oder
Forschungen tief unter der Erde durchführen. Gefährlich wird es jedoch,
wenn ein Supercomputer auch Fähigkeiten, wie Emotionen, dazulernt und
damit unberechenbar wird.

Professor Xu rät deshalb, dass Unternehmen, wie Google und Facebook,
moralische und ethische Kommittees einrichten, um sicherzustellen, dass
die Forschung nicht in eine falsche Richtung führt und Maschinen
erschafft, die sich „bösartig“ verhalten.

Dr. Michael Harre, der jahrelang die Künstliche Intelligenz AlphaGos
studiert hat, betont ebenfalls, dass sich die Technologie so weit
entwickelt hat, dass sie nun das menschliche Gehirn sowohl in einfachen,
als auch komplexen Aufgaben überlisten kann. Dies sei ein Grund zur Sorge,
denn die Gefahr besteht, dass sich der Einsatz von Künstlicher Intelligenz
zukünftig in den Verteidigungs- und Sicherungssektor verschieben könnte
und der Mensch in der Kontrollschleife keine Rolle mehr spielt.

(rdk / idw)

(Bild: Der will nur spielen – Humanoider Tischtennis-Roboter / Foto:
Humanrobo / Bildlizenz: CC BY-SA 3.0)