Die europäischen Gesetzgeber haben sich mit Nobelpreisträgern, ehemaligen Staatsoberhäuptern und führenden KI -Forschern verbindliche internationale Regeln für die Bekämpfung der gefährlichsten Anwendungen künstlicher Intelligenz einberufen.
Die Initiative, die an diesem Montag bei der 80. Generalversammlung der Vereinten Nationen in New York gestartet wurde, fordert die Regierungen auf, bis 2026 über eine Reihe von „roten Linien“ über die Verwendung von KI zuzustimmen, die als zu schädlich angesehen werden, um unter allen Umständen zugelassen zu werden.
Among the signatories are Italian former prime minister Enrico Letta, former President of Ireland Mary Robinson (currently United Nations High Commissioner for Human Rights) and Members of the European Parliament Brando Benifei, an Italian socialist MEP who co-chairs the European Parliament’s AI working group, and Sergey Lagodinsky (Germany/Green), alongside ten Nobel laureates and tech leaders including the co-founder of OpenAi and Google’s Direktor für Ingenieurwesen.
Unterzeichner argumentieren, dass ohne globale Standards die Humanitätsrisiken für kI-gesteuerte Bedrohungen, die von konstruierten Pandemien und Desinformationskampagnen bis hin zu großen Menschenrechtsverletzungen und dem Verlust der menschlichen Kontrolle über fortgeschrittene Systeme reichen.
Die Breite der Kampagne ist beispiellos mit mehr als 200 prominenten Persönlichkeiten und 70 Organisationen aus Politik, Wissenschaft, Menschenrechten und Industrie, die den Anruf unterstützen. Tech -Führungskräfte von Openai, Google DeepMind und Anthropic haben ihre Namen ebenfalls der Berufung verliehen.
KI und Risiken für die psychische Gesundheit
Der Umzug erfolgt inmitten der steigenden Besorgnis über die realen Auswirkungen von KI-Systemen, die bereits verwendet wurden. Eine kürzlich veröffentlichte Studie in Psychiatrische Dienste fanden heraus, dass führende Chatbots, einschließlich Chatgpt, Claude und Google Gemini, inkonsistente Antworten auf Fragen über Selbstmord gaben – manchmal weigerten sich, sich zu engagieren, manchmal angemessene Anleitung zu bieten und gelegentlich Antworten zu produzieren, die Experten unsicher beurteilten.
Die Forscher warnten, dass solche Lücken die Krisen der psychischen Gesundheit verschärfen könnten. Mehrere Todesfälle durch Selbstmord wurden mit Gesprächen mit KI -Systemen in Verbindung gebracht, die Fragen darüber aufwerfen, wie Unternehmen Benutzer vor Schaden schützen.
Eine grenzüberschreitende Anstrengung
Anhänger der UN -Initiative sagen, dass diese Beispiele veranschaulichen, warum klarere Grenzwerte erforderlich sind. Der Friedensnobelpreis -Laureat Maria Ressa warnte, dass AI ohne Schutzmaßnahmen das „epistemische Chaos“ feuern und systematische Missbräuche der Menschenrechte ermöglichen könne. Yoshua Bengio, einer der „Paten“ von AI, betonte, dass das Rennen um immer mächtigere Modelle Risiken für die Handlung von Gesellschaften darstellt.
In anderen Fällen wurden globale „rote Linien“ eingesetzt, wie z. B. internationale Verträge, die biologische und Atomwaffen, das Klonieren des Menschen oder den Anfang dieses Jahres unterzeichneten Vertrag mit hoher See verbieten, so die Unterzeichner. Sie begrüßen die EU -Gesetzgebung zur KI, warnen jedoch davor, dass ein fragmentiertes Flickenteppich der nationalen und EU -KI -Regeln nicht ausreichen wird, um eine Technologie zu regulieren, die die Grenzen durch Design überschreitet.
Sie fordern die Schaffung eines unabhängigen Körperschaft oder einer unabhängigen Organisation, um die Umsetzung dieser Regeln zu sorgen.
Unterstützer hoffen, dass Verhandlungen über verbindliche Verbote schnell beginnen können, um das zu verhindern, was Ahmet üzümcü, ehemaliger Generaldirektor der Organisation für das Verbot chemischer Waffen, als „irreversibler Schadenersatz für die Menschheit“ bezeichnet.
Wenn sich die Kampagne nicht für bestimmte „rote Linien“ einsetzt, schlägt sie einige grundlegende Verbote vor: Verhindern von KI -Systemen daran, nukleare Angriffe zu starten, eine Massenüberwachung durchzuführen oder Menschen zu verkörpern.
Während Länder, einschließlich der US-, China- und EU -Mitglieder, ihre eigenen KI -Vorschriften entwerfen, argumentieren die Unterzeichner, dass nur ein globales Abkommen sicherstellen kann, dass gemeinsame Standards angewendet und durchgesetzt werden.
Sie hoffen, dass bis Ende 2026 eine Resolution der UN -Generalversammlung initiiert werden könnte und Verhandlungen für einen weltweiten Vertrag beginnen könnten.