Im August 2017 sorgte Tesla-Gründer Elon Musk mit einem Tweet für weltweites Aufsehen. Musk nahm den drohenden Atomkrieg zwischen den USA und Nordkorea zum Anlass, um vor einer anderen, seiner Meinung nach noch größeren, Gefahr zu warnen: „Wenn Sie nicht besorgt sind über die Sicherheit künstlicher Intelligenz, sollten Sie es sein. Wesentlich höhere Gefahr als Nordkorea.“ Um seiner Warnung Nachdruck zu verleihen, fügte er seinem Tweet ein Bild an, das den Sieg der Maschinen ankündigte. Zwar stammt das Bild aus einer Aufklärungskampagne betreffend Automatenglücksspiel, die Aussage dahinter war jedoch klar: „Die Maschinen“ werden am Ende den Kampf gegen die Menschheit gewinnen.
If you're not concerned about AI safety, you should be. Vastly more risk than North Korea. pic.twitter.com/2z0tiid0lc
— Elon Musk (@elonmusk) August 12, 2017
Und weil es ihm damit ernst zu sein scheint, forderte er bereits mehrfach die (staatliche) Regulierung von AI (Artificial Intelligence; künstliche Intelligenz, KI). Das ist durchaus bemerkenswert, denn Forderungen nach staatlichen Eingriffen aus dem Silicon Valley haben Seltenheitswert.
Andere halten die neue Technologie für wesentlich weniger gefährlich. Tristan Horx vom deutschen Zukunftsinstitut teilt zwar die Ansicht, dass künstliche Intelligenz gewisse Risiken birgt, sieht jedoch darin nicht den nahenden Untergang der Menschheit: „Tatsächlich bezweifeln viele AI-Forscher, dass es überhaupt möglich ist, eine maschinelle Intelligenz zu schaffen, die unserer menschlichen in jedem Kontext überlegen ist. Und eine mögliche Weltübernahme müsste man in die AI schon einprogrammieren, denn von selbst würde sie wohl nicht auf die Idee kommen. Das heißt natürlich nicht, dass wir uns zurücklehnen sollten, es braucht Diskurs, Konflikt und vermutlich auch eine Form der Regulierung.“
Um künstliche Intelligenz zu regulieren, muss man erst verstehen, was künstliche Intelligenz überhaupt ist, und das ist keine einfache Aufgabe, denn eine einheitliche Definition gibt es nicht. Kurz gesagt geht es darum, einem Computer beizubringen, wie ein Mensch zu denken oder gar wie einer zu fühlen.
Im Grunde ist AI bzw KI nichts anderes als ein Computerprogramm, ein Algorithmus. In Verbindung mit der entsprechenden Hardware wird daraus ein Roboter. Die Besonderheit liegt darin, dass ein KI-Programm – im Gegensatz zu normalen Anwendungen – auch Eigenschaften wie Kreativität, Empathie, Lern- und Abstraktionsfähigkeit aufweisen soll, also Dinge, die bisher größtenteils dem menschlichen Denken vorbehalten sind. In der höchsten Entwicklungsstufe ist künstliche Intelligenz völlig unabhängig von menschlichem Input und agiert selbstständig. Das bedeutet auch, dass sie nicht nur sich selbst weiterentwickeln, sondern auch neue KI erschaffen kann. Aktuelle und zukünftige Einsatzgebiete sind etwa Service-Roboter, selbstfahrende Autos oder autonome Waffensysteme.
Doch wie verhindert man, dass ein autonomer Roboter außer Kontrolle gerät? AI-Entwicklern ist durchaus bewusst, welches Gefahrenpotenzial in ihrem Forschungsgebiet schlummert, deshalb haben sich beispielsweise die fünf Branchengrößen Alphabet (Muttergesellschaft von Google), Amazon, Facebook, IBM und Microsoft gemeinsame Ethikrichtlinien auferlegt.
Diese Form freiwilliger Selbstregulierung wird in Zukunft möglicherweise eine wesentliche Rolle spielen. Zum einen hinken Regierungen den technologischen Entwicklungen meist hinterher, zum anderen handelt es sich dabei um eine Problemstellung, die nur auf internationaler Ebene gelöst werden kann. Man denke etwa an selbstfahrende Fahrzeuge, die nicht nur verschiedene Länder, sondern auch verschiedene Rechtsordnungen durchqueren werden.
Im Online-Bereich ist schon heute erkennbar, dass unsere bestehenden Methoden nicht ausreichend sind. „Das Problem im Informationszeitalter ist nun einmal, dass nationalstaatliche Regulationsmechanismen oft nicht gut funktionieren“, sagt Horx, der fordert, dass man die momentane Debatte über Facebook- und Google-Algorithmen nutzen solle, „um Lösungen zu finden, die weltweit greifen.“ Dabei sollte man außerhalb klassischer Lösungsansätze denken: „Von einer globalen AI-Organisation bis zu freiwilliger Selbstregulierung ist vieles möglich. Mit einzelstaatlichen ,Top-Down-Lösungen‘ wird es nicht mehr gehen.“
Das Europäische Parlament hat im Februar 2017 eine Resolution zum Thema Robotics und AI verabschiedet. Damit beweist die EU zwar einen gewissen Weitblick, der Weg zu echten Robotergesetzen ist jedoch noch lang. Bei Haftungsfragen und strafrechtlichen Regelungen beispielsweise stoßen aktuelle Konzepte an ihre Grenzen. Weder verfügt ein Roboter über Vermögen, mit dem er haften könnte, noch haben strafrechtliche Sanktionen eine abschreckende Wirkung auf ihn. Außerdem wird es wohl schwer, einen Algorithmus zu verhaften. Kann ein abstraktes menschliches Gesetz, das beispielsweise an ein gesellschaftliches Sittenverständnis anknüpft, überhaupt je von einer Maschine verstanden werden?
Abgesehen von den rechtlichen Fragen werden zukünftige Regierungen vor allem vor der Herausforderung stehen, die Auswirkungen der intelligenten Technologie auf unsere Arbeitswelt und somit die Gesellschaft abzufedern. Zusätzlich zu einem – zumindest vorübergehenden – Anstieg der Arbeitslosigkeit ist die stark gestiegene Lebenserwartung in Industrieländern ein Faktor, der die Sozialsysteme belasten wird.
Laut Angaben der Vereinten Nationen waren im Jahr 2000 etwa 15 Prozent der europäischen Bevölkerung über 65 Jahre alt, bis zum Jahr 2050 soll dieser Anteil jedoch auf fast 27 Prozent steigen.
Hinzu kommen andere Entwicklungen, die bereits voll im Gange sind, auf die jedoch bisher entschlossene Reaktionen fehlen. So ist derzeit weitestgehend unklar, wie wir in Zukunft mit Kryptowährungen bzw. virtuellen Währungen umgehen werden. Der Präsident der Europäischen Zentralbank, Mario Draghi, hat erst kürzlich erklärt, dass es nicht in der Macht seiner Organisation liege, digitale Währung wie Bitcoin zu regulieren. Dies ist vor allem deshalb beachtenswert, da viele Menschen Bitcoin und Co. nicht als Zahlungsmittel, sondern als Investitionsmöglichkeit sehen. Die ersten Gesetzgebungsschritte der EU und einzelner anderer Staaten – Vorreiter ist Japan – beschränken sich im Bereich der virtuellen Währungen bisher weitgehend auf die Bekämpfung von Geldwäsche und Terrorismusfinanzierung. Währungspolitische Maßnahmen spielen bisher keine Rolle.
Ein Ort, an dem Bitcoins tatsächlich gerne als Zahlungsmittel verwendet werden, ist das sogenannte Darknet. Das ist ein „versteckter“ Ort im Internet, an dem man, mittels einer verschlüsselten Internetverbindung, spezieller Software und Bitcoins, weitestgehend anonym vieles tun und kaufen kann, was in der realen Welt verboten ist. 2016 wurde in München ein Attentat mit einer Waffe aus dem Darknet verübt, dabei kamen neun Menschen ums Leben. In diesem Fall konnte der Händler ausfindig gemacht und festgenommen werden.
Ähnlich wie Bitcoins sind auch unsere Daten bares Geld wert. Dass Daten gelegentlich als das „neue Öl“ bezeichnet werden, zeigt, wie wichtig sie für das Funktionieren der modernen Wirtschaft geworden sind. Unternehmen sind bereit, viel Geld in ihre Datensammlungen zu investieren. Denn Wissen ist Macht, und wer mehr über seine (potenziellen) Kunden weiß als die Konkurrenz, hat einen entscheidenden Vorteil. Was für Unternehmen wertvoll ist, wirkt für viele Menschen jedoch bedrohlich. Die unterschiedlichen Zugänge zu diesem Thema in Europa und in den USA machen deutlich, dass Datenschutz nicht gleich Datenschutz ist. Unter anderem im Gesundheitsbereich können große Datenmengen äußerst hilfreich sein; die Aufgabe, den richtigen Umgang mit ihnen zu finden, ist jedoch nicht einfach zu lösen.
Bitcoin ist eine auf der Blockchain-Technologie basierende Kryptowährung. Dabei werden zwar sämtliche Transaktionen dezentral gespeichert, mithilfe verschiedener Tools kann man ihre Herkunft jedoch weitestgehend verstecken. Man weiß bis heute nicht, wer Bitcoin erfunden hat, lediglich das Pseudonym Satoshi Nakamoto ist bekannt.
Seit jeher großen Umbrüchen ausgesetzt ist das Gebiet der Landesverteidigung. Unsere traditionelle Vorstellung, was Krieg bedeutet, bildet die Realität nicht mehr ab. Seit längerem sind asymmetrische Konflikte eher die Regel als die Ausnahme. Zusätzlich ist der Anteil an unbemannten Waffensystemen deutlich gestiegen.
Die vielleicht gravierendste Neuerung jedoch fand auf unsichtbaren Schlachtfeldern statt. Unter dem Schlagwort Cyberwar wird alles zusammengefasst, was kriegerische Handlungen in der digitalen Welt betrifft. Virtuelle Angriffe können ebenso vernichtend sein wie konventionelles Kriegsgerät. Ob man nun an das Ausspionieren von Regierungen, an das Lahmlegen von Kraftwerken oder einfach an das Stehlen von Geld denkt, das Waffenarsenal ist breit. Sowohl staatliche Institutionen als auch zivile Gruppen haben bereits mehrfach bewiesen, dass so mit relativ einfachen Mitteln ein enormer Schaden angerichtet werden kann.
Zuletzt haben etwa nordkoreanische Hacker mit ihren Angriffen nicht nur etliche Millionen US-Dollar (beispielsweise von einem Konto der Bangladesh Bank bei der Federal Reserve Bank in New York), sondern auch geheime Unterlagen des südkoreanischen Verteidigungsministeriums gestohlen. Unter den Opfern von Cyberattacken sind, nebst militärischen und staatlichen Organisationen, auch immer wieder Einzelpersonen und Unternehmen zu finden. Man kann davon ausgehen, dass die Möglichkeiten der virtuellen Kriegsführung noch lange nicht ausgeschöpft sind und die Bomben der Zukunft nicht mehr ausschließlich vom Himmel fallen.
Darunter sind Konflikte zu verstehen, die nicht offen zwischen zwei Armeen geführt werden, sondern in denen eine Seite – meist die unterlegene – versucht, mit punktuellen Angriffen den Gegner zu schwächen.