OpenAI bewertet KI-Risiken

OpenAI bewertet KI-Risiken

OpenAI bewertet KI-Risiken


OpenAI hat ein Team zusammengestellt, das sich mit der Identifizierung und Verhinderung von Risiken im Zusammenhang mit künstlicher Intelligenz befasst. Dies könnte dazu führen, dass der Start eines KI-Modells ausgesetzt wird, wenn es als zu gefährlich erachtet wird.

Diese Ankündigung kommt nur einen Monat nach der Entlassung des Chefs von ChatGPT, dem Erfinder der Konversationsschnittstelle Sam Altman, der Tage später wieder eingestellt wurde.

Wie mehrere US-Medien berichten, kritisierten ihn die Vorstandsmitglieder, weil er sich für eine beschleunigte Entwicklung von OpenAI eingesetzt hatte, auch wenn dies bedeutete, einigen Fragen zu möglichen KI-Entlassungen auszuweichen.

Das Bereitschaftsteam wird von dem Informatiker Alexander Madri geleitet. Er war als Professor am MIT tätig, hat sich aber beurlauben lassen. Das geht aus einem Beitrag hervor, den der Wissenschaftler am Montag auf der X-Website (früher Twitter) veröffentlichte.

Die Arbeit der Gruppe wird sich auf einen Arbeitsrahmen stützen, der in einem am Montag veröffentlichten Dokument definiert ist. Darin wird auch der Umfang der Aktivitäten und Verfahren festgelegt.

Die neue Gruppe wird sich auf sogenannte "Grenzmodelle" (frontier models) konzentrieren. Diese befinden sich derzeit in der Entwicklung, haben aber das Potenzial, die fortschrittlichsten Programme der künstlichen Intelligenz zu übertreffen.

"Wir glauben, dass die wissenschaftliche Untersuchung von KI-bezogenen Katastrophenrisiken noch nicht ausgereift ist", erklären Vertreter von OpenAI in dem Dokument.

Die Schaffung des Rahmens soll dazu beitragen, diese Lücke zu schließen, heißt es. Das Team wird jedes neue Modell bewerten und ihm eine Risikostufe in vier Hauptkategorien zuweisen.

Die erste bezieht sich auf die Cybersicherheit und die Fähigkeit des Modells, groß angelegte Cyberangriffe durchzuführen.

Die zweite Kategorie betrifft die Neigung der Software, chemische Mischungen, Organismen (z. B. Viren) oder Kernwaffen zu erzeugen, die Menschen schaden könnten.

Die dritte Kategorie bezieht sich auf die Überzeugungskraft des Modells, d. h. das Ausmaß, in dem es menschliches Verhalten beeinflussen kann.

Die letzte Risikokategorie betrifft die potenzielle Autonomie des Modells, z. B. die Frage, ob es exfiltriert werden kann. Dies würde darauf hinauslaufen, dass sich das Modell der Kontrolle der Programmierer entzieht, die es erstellt haben.

Sobald die Risiken identifiziert sind, werden sie der Safety Advisory Group (SAG) vorgelegt, einem neuen Gremium, das Empfehlungen an Sam Altman oder einen von ihm Beauftragten aussprechen wird. Der Leiter von OpenAI wird dann entscheiden, welche Änderungen an dem Modell vorgenommen werden müssen, um die damit verbundenen Risiken zu mindern. Der Vorstand wird auf dem Laufenden gehalten und hat die Möglichkeit, die Entscheidung der Geschäftsführung zu überstimmen.


COMMENTS

Comments ()

    BLOGS

    MetaTrader 4 und 5: Vergleich von zwei Forex-Handelsplattformen
    MetaTrader ist die bekannteste und am weitesten verbreitete Plattform ...

    Motley Fool Aktienauswahldienst
    Motley Fool bietet eine breite Palette von Funktionen und Diensten, da ...

    Forex-Händler: Wie viele gibt es?
    Der Artikel befasst sich mit der Zahl der Händler auf dem Forex-Markt ...

    TrustsCapital: Warum dieser Broker kein Betrüger ist - Auszahlungen als Bestätigung
    Erfahren Sie, warum der Broker TrustsCapital seriös arbeitet, regelmäß ...


    Die SaxoBank gehört als Broker zur Saxo-Gruppe, zu der eine Reihe von Unternehmen gehören. Jeder von ihnen arbeitet auf einem bestimmten Finanzmarkt und unterliegt der Kontrolle der jeweilige


    Top