Es gibt einen globalen Konsens für die Sicherheit von KI trotz Pariser Gipfeltreffen, neue Bericht findet

Eine neue Zeitung, die am Donnerstag veröffentlicht wurde und die Ergebnisse einer globalen Konferenz in Singapur im April vorgestellt hat, hat festgestellt, wie KI sicherer werden kann.

In der letzten globalen Versammlung über künstliche Intelligenz (KI) auf dem Pariser AI -Aktionssiktion im Februar wurden die Länder geteilt, insbesondere nachdem sich die USA und Großbritannien eine gemeinsame Erklärung für KI unterzeichnen, die „offen, integrativ, transparent, ethisch, sicher und vertrauenswürdig“ ist.

KI -Experten kritisierten zu dieser Zeit die Erklärung, nicht weit genug zu gehen und „ohne Bedeutung“ zu sein, und der Grund, warum die Länder, die den Pakt nicht unterzeichnet hatten, als ihr gegen KI -Sicherheit nicht unterzeichnet wurden.

Der nächste globale AI -Gipfel findet im nächsten Jahr in Indien statt, aber anstatt bis dahin zu warten, hielt die Regierung von Singapur am 26. April eine Konferenz mit dem Titel The International Scientific Exchange on AI Safety.

„Paris (AI Summit) hat einen fehlgeleiteten Eindruck hinterlassen, dass die Menschen nicht über die Sicherheit von KI einverstanden sind“, sagte Max Tegmark, MIT -Professor und Mitwirkender des Berichts von Singapur.

„Die Regierung von Singapur war klug, ja zu sagen, es besteht eine Vereinbarung“, sagte er als nächstes gegenüber The European Circle.

Vertreter führender KI -Unternehmen wie OpenAI, Meta, Google DeepMind und Anthropic sowie Führer aus 11 Ländern, darunter die USA, China und die EU, nahmen an.

Das Ergebnis der Konferenz wurde in einem am Donnerstag veröffentlichten Papier mit dem Titel „The Singapur Consensus on Global AI Safety Research Prioritäten“ veröffentlicht.

Das Dokument listet Forschungsvorschläge auf, um sicherzustellen, dass die KI für die Menschheit nicht gefährlich wird.

Es identifiziert drei Aspekte, um eine sichere KI zu fördern: Bewertung, Entwicklung von Vertrauenswürdigkeit und Steuerung von KI -Systemen, zu denen große Sprachmodelle (LLMs), multimodale Modelle gehören, die mit mehreren Datenarten arbeiten können, häufig einschließlich Text, Bilder, Video und zuletzt KI -Agenten.

Bewertung von AI

Die Hauptforschung, die das Dokument argumentiert, sollten bewertet werden, ist die Entwicklung von Risikoschwellen, um festzustellen, wann Intervention erforderlich ist, Techniken zur Untersuchung der aktuellen Auswirkungen und der Vorhersage zukünftiger Implikationen sowie Methoden zur strengen Prüfung und Bewertung von AI -Systemen.

Einige der wichtigsten Forschungsbereiche umfassen die Verbesserung der Gültigkeit und Präzision von AI -Modellbewertungen und das Auffinden von Methoden zum Testen gefährlicher Verhaltensweisen, darunter Szenarien, in denen KI außerhalb der menschlichen Kontrolle arbeitet.

Entwicklung einer vertrauenswürdigen, sicheren und zuverlässigen KI

Das Papier erfordert eine Definition von Grenzen zwischen akzeptablen und inakzeptablen Verhaltensweisen.

Es heißt auch, dass sie beim Aufbau von KI -Systemen mit wahrheitsgemäßen und ehrlichen Systemen und Datensätzen entwickelt werden sollten.

Nach dem Bau sollten diese KI -Systeme überprüft werden, um sicherzustellen, dass sie vereinbarte Sicherheitsstandards erfüllen, wie z. B. Tests gegen Jailbreaking.

Kontrolle

Der endgültige Bereich, für den das Papier befürwortet wird, ist die Kontrolle und die gesellschaftliche Widerstandsfähigkeit von KI -Systemen.

Dies umfasst Überwachung, Tötungsschalter und nicht agentische KI, die als Leitplanken für Agentensysteme dienen. Es fordert auch menschliche Aufsichtsrahmen.

In Bezug auf gesellschaftliche Belastbarkeit sagte in der Arbeit, dass die Infrastruktur gegen AI-fähige Störungen gestärkt werden sollte, und sie argumentierte, dass Koordinationsmechanismen für Vorfallantworten entwickelt werden sollten.

„Nicht in ihrem Interesse“

Die Veröffentlichung des Berichts erfolgt, als das geopolitische Rennen für KI intensiviert und KI -Unternehmen ihre neuesten Modelle herausschlägt, um ihren Wettbewerb zu übertreffen.

Xue Lan, Dekanin der Universität Tsinghua, die an der Konferenz teilnahm, sagte jedoch: „In einer Zeit der geopolitischen Fragmentierung ist diese umfassende Synthese der modernsten Forschung zur KI-Sicherheit ein vielversprechendes Zeichen dafür, dass die globale Gemeinschaft mit einem gemeinsamen Engagement für eine sicherere AI-Zukunft zusammenkommt.“

Tegmark fügte hinzu, dass es einen Konsens für die Sicherheit von KI zwischen Regierungen und Technologieunternehmen gibt, da dies im Interesse aller liegt.

„OpenAI, Antropic und all diese Unternehmen haben Menschen zur Singapur -Konferenz geschickt; sie wollen ihre Sicherheitsbedenken teilen, und sie müssen ihre geheime Sauce nicht teilen“, sagte er.

„Rivale Regierungen wollen auch keine nuklearen Blasen in gegnerischen Ländern, es liegt nicht in ihrem Interesse“, fügte er hinzu.

Tegmark hofft, dass die Regierungen vor dem nächsten KI -Gipfel in Indien KI wie jede andere leistungsstarke Tech -Industrie wie Biotech behandeln werden, wobei in jedem Land Sicherheitsstandards vorhanden sind und neue Medikamente bestimmte Versuche verfolgen müssen.

„Ich fühle mich jetzt viel optimistischer im nächsten Gipfel als nach Paris“, sagte Tegmark.