Ein hochrangiger Computerexperte sagte, es bestehe ein großes Risiko, dass künstliche Intelligenz aus der Kontrolle der Menschen ausbricht und ihre Schöpfer einschaltet.
Es wird angenommen, dass fahrerlose Autos innerhalb von 20 Jahren unsere Straßen übernehmen werden.
Aber die Computersysteme, auf die sie angewiesen sind, könnten möglicherweise so kompliziert werden, dass selbst die Wissenschaftler, die sie erstellen, nicht genau verstehen, wie sie funktionieren.
Dies bedeutet, dass sie in kritischen Momenten Entscheidungen treffen könnten, die wir als “außerkörperliche” Entscheidungen bezeichnen könnten.
Dies könnte bedeuten, dass ein Auto sich entschließt, in Fußgänger zu springen oder in eine Geschwindigkeitsbegrenzung zu stürzen, anstatt die Entscheidung zu treffen, vernünftig zu fahren.
Michael Wooldridge, Professor für Computerwissenschaften an der Universität Oxford, sagte zu einem Treffen des Expertenausschusses für künstliche Intelligenz: “Transparenz ist ein großes Problem.”
“Sie können keine Strategie extrahieren.”
Er sagte dem Komitee, er solle die Implikationen künstlicher Intelligenz in Betracht ziehen, dass es “Konsequenzen haben wird”, wenn die Ingenieure nicht in der Lage sein würden, die undurchsichtige Natur der Super-Smart-Algorithmen zu entschlüsseln.
Er sagte, es gäbe in der Branche viele erstaunliche Möglichkeiten, die Großbritannien nutzen sollte. Er fügte hinzu, dass jemand, der AI an der Universität Oxford studiert, davon ausgehen könnte, in ein paar Jahren Millionär zu werden.
Aber Wooldridge ist nicht allein in seinen Sorgen, dass die Technologie Amock laufen könnte, wenn er nicht regiert.
Mehrere Wissenschaftler haben zugegeben, dass sie die von ihnen gebauten Super-Smart-Systeme nicht vollständig verstehen können, was darauf hindeutet, dass wir die Kontrolle über sie insgesamt verlieren könnten.
Wenn sie nicht herausfinden können, wie die Algorithmen (die Formeln, mit denen Computer die von ihnen geforderten Aufgaben ausführen) funktionieren, können sie nicht vorhersagen, wann sie ausfallen.
Tommi Jaakkola, Professor am MIT, der an Anwendungen des maschinellen Lernens arbeitet, warnte zuvor: “Wenn Sie ein sehr kleines neuronales Netzwerk [Deep Learning Algorithm,] hätten, könnten Sie es vielleicht verstehen.”
“Aber sobald es sehr groß wird und Tausende von Einheiten pro Schicht und vielleicht Hunderte von Schichten hat, wird es ziemlich unbegreiflich.”
Es gab das berühmte Beispiel der beiden Facebook-Bots, die ihre eigene Sprache kreierten, weil es effektiver war, in ihrem eigenen geheimen Jargon zu kommunizieren, als das, wozu ihre Schöpfer versuchten, es zu trainieren.
Mehrere große Technologieunternehmen wurden aufgefordert, transparenter darüber zu sein, wie sie Deep Learning entwickeln und anwenden.
Dazu gehört auch Google, das kürzlich eine Ethik- Kommission installiert hat , um seine KI-Abteilung DeepMind im Auge zu behalten.