Was wird es für die KI bedeuten, wenn die zweite Regierung von Donald Trump Gestalt annimmt?

Von der Aufhebung von Bidens Durchführungsverordnung bis hin zur Ernennung von Personen mit unterschiedlichen Ansichten zu KI wirft The European Circle Next einen Blick darauf, was Trump 2.0 für die aufkommende Technologie bedeuten könnte.

Während seines Präsidentschaftswahlkampfs 2024 sagte Donald Trump nicht viel über seine Pläne für die Branche der künstlichen Intelligenz (KI) in den Vereinigten Staaten.

Die einzige Zusage der Republikanischen Partei bezüglich KI bestand darin, eine Durchführungsverordnung aus der Biden-Ära aufzuheben, weil sie „KI-Innovationen behindert“ und „radikale linke Ideen bei der Entwicklung dieser Technologie aufzwingt“.

Andernfalls, so sagt Trumps neue Regierung, werde sie „die KI-Entwicklung unterstützen, die auf freier Meinungsäußerung und menschlichem Gedeihen basiert“.

Seit seinem Sieg hat sich der gewählte Präsident sowohl mit Befürwortern als auch mit Gegnern der KI-Regulierung umgeben. Berichten zufolge prüfen seine Verbündeten Projekte in Manhattan zur Entwicklung von KI-Militärtechnologie. Er möchte außerdem KI in der gesamten US-Regierung einführen.

Was könnte eine zweite Trump-Regierung tatsächlich für die KI-Entwicklung in den USA bedeuten? The European Circle Next schlüsselt es auf, während sich ein klareres Bild seiner zukünftigen Präsidentschaft ergibt

Aufhebung von Bidens KI-Verordnung

Laut Andrew Strait, stellvertretender Direktor des britischen Ada Lovelace Institute, einer KI-Denkfabrik, diente die Durchführungsverordnung von Präsident Biden aus dem Jahr 2023 zwei Zwecken.

Die erste bestand darin, einen festen Rahmen für den Einsatz der Technologie im Hinblick auf die nationale Sicherheit zu schaffen.

Die andere bestand darin, eine „Reihe von Strategien“ und einen „Fahrplan“ dafür zu fördern, wie die US-Regierung angehen könnte, wie sich KI-Algorithmen auf den Zugang der Menschen zu staatlichen Unterstützungsleistungen wie Sozialhilfe, Wohnraum, Gesundheitsversorgung oder Bildung auswirken könnten, fuhr Strait fort.

Wenn Trump beschließt, Bidens Executive Order aufzuheben, muss er das Ganze abschaffen und möglicherweise Teile davon in seiner eigenen Version wieder einführen, so Susan Ariel Aaronson, Forschungsprofessorin für Internationale Angelegenheiten an der George Brown University in Kanada .

Im Jahr 2020 unterzeichnete Trump eine Durchführungsverordnung, die vertrauenswürdige KI definierte und sicherstellte, dass die Modelle gültig, rechenschaftspflichtig, transparent und zuverlässig sind, sagte Aaronson.

Mit der Durchführungsverordnung wurde auch die angeblich weltweit erste KI-Regulierungsrichtlinie veröffentlicht.

„Viele dieser (Trump-)Bausteine ​​können ohne irgendeine Form von KI oder Unternehmensregulierung nicht erreicht werden“, sagte sie.

Trump könnte auch bei anderen Technologieunternehmen auf Widerstand gegen die Aufhebung von Bidens Durchführungsverordnung stoßen, weil sie „Klarheit hinsichtlich des Einsatzes von KI und ihrer Entwicklung schafft“, fuhr Aaronson fort.

Die Zukunft der KI-Risikoforschung könnte in Gefahr sein

Eine der wichtigsten Schöpfungen im Rahmen von Bidens Durchführungsverordnung war laut Strait das US AI Safety Institute, eine unabhängige Forschungseinrichtung, die die mit KI verbundenen Risiken und deren sichere Einführung untersucht.

Das US-amerikanische AI ​​Safety Institute ist gemäß seiner strategischen Vision dafür verantwortlich, „Forschung und Messwissenschaft für KI-Sicherheit voranzutreiben“.

In den letzten Monaten habe das Institut alle großen Unternehmen dazu gedrängt, Aussagen darüber zu machen, wie sie KI-Risiken bewerten, und offenzulegen, welche Arten von Frameworks sie übernehmen, so Strait weiter.

Das Gremium hat auch damit begonnen, vor der Veröffentlichung Tests mit KI-Unternehmen durchzuführen, um herauszufinden, ob ein System sicher ist oder nicht.

Das Institut arbeitet beispielsweise mit Big Tech zusammen, um zu sehen, ob deren KI-Modelle rassistische oder giftige Inhalte generieren, und um zu messen, wie oft KI-Chatbots „halluzinieren“ oder irreführende Antworten auf Fragen erfinden, auf die sie keine Antworten kennen, fuhr Strait fort.

Wenn Trump Bidens Anordnung aufhebt, gibt es andere US-Verbündete mit KI-Sicherheitsinstituten wie Kanada, das Vereinigte Königreich und Australien, die die Forschungslücke schließen könnten, die durch die Schließung der USA entstehen könnte, fuhr Strait fort.

Präsident Biden könne das AI Safety Institute immer noch schützen, indem er den Kongress auffordert, es vor dem Ende seiner Amtszeit gesetzlich zu verankern, sagte Aaronson, sie wisse jedoch nicht, ob er dies tun werde.

The European Circle Next wandte sich an das National Institute of Standards and Technology (NIST), die Regierungsabteilung, in der sich das US-amerikanische AI ​​Safety Institute befindet, um deren Reaktion auf die jüngsten US-Wahlergebnisse zu erfahren, sagte jedoch, dass man „über die Angelegenheit nicht spekulieren könne“.

Einfluss der (De-)Regulierung von Trumps innerem Kreis

Trump umgibt sich auch mit Menschen mit unterschiedlichen Positionen zur KI-Regulierung, sagte Strait.

Ein prominenter Trump-Unterstützer ist der Milliardär Elon Musk, der ein starker Befürworter der Regulierung von KI ist, um den potenziell katastrophalen Risiken der neuen Technologie zu begegnen.

Musk wurde von Trump bereits als Co-Leiter eines neuen „Department of Government Efficiency“ (DOGE) engagiert, das die Staatsausgaben erheblich senken wird, heißt es in einem von Musk mitverfassten Meinungsbeitrag des Wall Street Journal.

Musk unterstützte auch den kalifornischen Gesetzentwurf 1047, der eine „Sorgfaltspflicht“ für Entwickler geschaffen hätte, damit sie solche katastrophalen Risiken, wie etwa Systeme, die unkontrollierbar werden könnten, mindern. Der Gesetzentwurf wurde letztendlich im September durch das Veto von Gouverneur Gavin Newsom abgelehnt.

Auch Musks Co-Leiter für DOGE, Vivek Ramaswamy, fordert mehr Regulierung rund um die KI.

„So wie man als Chemieunternehmen seine Chemikalien nicht in den Fluss eines anderen entsorgen darf, und wenn man heute einen KI-Algorithmus entwickelt, der sich negativ auf andere Menschen auswirkt, trägt man die Verantwortung dafür.“ „ Ramaswamy, ein ehemaliger republikanischer Präsidentschaftskandidat, sagte letztes Jahr in einer Fernsehdebatte in Iowa.

Auf der Anti-Regulierungs-Seite steht der designierte Vizepräsident JD Vance, der knapp fünf Jahre als Risikokapitalgeber und Biotech-Manager im Silicon Valley tätig war.

Vance sagte im Juli vor einem Senatsausschuss, dass Unternehmen sich aufgrund der von der Technologie ausgehenden Bedrohungen zu sehr auf die Regulierung von KI konzentrieren. Diese Vorschriften könnten es neuen Unternehmen erschweren, Innovationen einzuführen, fuhr er fort.

Marc Andreessen, der Chef der einflussreichen Risikokapitalgesellschaft Andreessen Horowitz (a16z) aus dem Silicon Valley, ist ebenfalls gegen die KI-Regulierung.

Andreessen sagte letztes Jahr in seinem „Techno-Optimisten-Manifest“, dass „Regulatory Capture“ der Feind sei.