Drohnen und selbstfahrende Autos als Waffen: Warum wir Angst vor Hackern haben müssen
Drohnen und selbstfahrende Autos als Waffen: Warum wir Angst vor Hackern haben müssen
Anonim

Wenn künstliche Intelligenz in die falschen Hände gerät, kann die zivilisierte Welt ins Chaos stürzen.

Drohnen und selbstfahrende Autos als Waffen: Warum wir Angst vor Hackern haben müssen
Drohnen und selbstfahrende Autos als Waffen: Warum wir Angst vor Hackern haben müssen

Niemand wird leugnen, dass künstliche Intelligenz unser Leben auf die nächste Stufe heben kann. KI ist in der Lage, viele Probleme zu lösen, die außerhalb der Macht des Menschen liegen.

Viele glauben jedoch, dass die Superintelligenz uns definitiv zerstören will, wie SkyNet, oder beginnen wird, Experimente an Menschen durchzuführen, wie GLADoS aus dem Portal-Spiel. Die Ironie ist, dass nur Menschen künstliche Intelligenz gut oder böse machen können.

Warum künstliche Intelligenz eine ernsthafte Bedrohung sein kann
Warum künstliche Intelligenz eine ernsthafte Bedrohung sein kann

Forscher der Yale University, Oxford, Cambridge und OpenAI haben einen Bericht über den Missbrauch künstlicher Intelligenz veröffentlicht. Es heißt, die wahre Gefahr geht von Hackern aus. Mithilfe von Schadcode können sie den Betrieb automatisierter Systeme unter der Kontrolle von KI stören.

Forscher befürchten, dass gut gemeinte Technologien Schaden nehmen. Überwachungsgeräte können beispielsweise nicht nur dazu verwendet werden, Terroristen zu fangen, sondern auch um normale Bürger auszuspionieren. Die Forscher sind auch besorgt über kommerzielle Drohnen, die Lebensmittel liefern. Es ist leicht, sie abzufangen und etwas Explosives zu pflanzen.

Ein weiteres Szenario für den destruktiven Einsatz von KI sind selbstfahrende Autos. Es reicht aus, ein paar Codezeilen zu ändern, und Maschinen werden beginnen, Sicherheitsregeln zu ignorieren.

Warum künstliche Intelligenz eine ernsthafte Bedrohung sein kann
Warum künstliche Intelligenz eine ernsthafte Bedrohung sein kann

Wissenschaftler glauben, dass die Bedrohung digital, physisch und politisch sein kann.

  • Künstliche Intelligenz wird bereits verwendet, um die Schwachstellen verschiedener Softwarecodes zu untersuchen. In Zukunft können Hacker einen Bot erstellen, der jeden Schutz umgeht.
  • Mithilfe von KI kann ein Mensch viele Prozesse automatisieren: zum Beispiel einen Drohnenschwarm oder eine Autogruppe steuern.
  • Mithilfe von Technologien wie DeepFake ist es möglich, das politische Leben des Staates zu beeinflussen, indem über das Internet falsche Informationen über Weltführer verbreitet werden.

Diese erschreckenden Beispiele existieren bisher nur als Hypothese. Die Autoren der Studie schlagen keine vollständige Ablehnung der Technologie vor. Stattdessen glauben sie, dass sich nationale Regierungen und große Unternehmen um die Sicherheit kümmern sollten, während die KI-Branche noch in den Kinderschuhen steckt.

Politische Entscheidungsträger müssen Technologie studieren und mit Experten auf diesem Gebiet zusammenarbeiten, um die Schaffung und Nutzung von künstlicher Intelligenz effektiv zu regulieren.

Entwickler wiederum müssen die von Hochtechnologie ausgehende Gefahr einschätzen, die schlimmsten Folgen antizipieren und die Weltpolitiker davor warnen. Der Bericht fordert KI-Entwickler auf, sich mit Sicherheitsexperten aus anderen Bereichen zusammenzuschließen und zu prüfen, ob die Prinzipien, die die Sicherheit dieser Technologien gewährleisten, zum Schutz der künstlichen Intelligenz verwendet werden können.

Der vollständige Bericht beschreibt das Problem detaillierter, aber unter dem Strich ist KI ein mächtiges Werkzeug. Alle interessierten Parteien sollten die neue Technologie studieren und sicherstellen, dass sie nicht für kriminelle Zwecke verwendet wird.

Empfohlen: