Cryptonews

Anthropic nutzt „angstbasiertes Marketing“, um Claude Mythos zu fördern: Sam Altman

Quelle
cryptonewstrend.com
Veröffentlicht
Anthropic nutzt „angstbasiertes Marketing“, um Claude Mythos zu fördern: Sam Altman

Kurz gesagt

Sam Altman, CEO von OpenAI, hat vorgeschlagen, dass das Konkurrenzunternehmen Anthropic „angstbasiertes Marketing“ nutzt, um für sein Claude-Mythos-Modell zu werben.

Claude Mythos hat eine beispiellose Fähigkeit bewiesen, Software-Schwachstellen zu finden.

Regierungen und Forscher haben vor sowohl defensiven als auch offensiven Risiken im Zusammenhang mit Mythos gewarnt.

Sam Altman, CEO von OpenAI, wehrte sich gegen die wachsende Besorgnis über das leistungsstarke neue KI-Modell des Rivalen Anthropic, Claude Mythos, und deutete an, dass das Unternehmen „Angst“ nutzt, um das Produkt zu vermarkten.

Im Podcast „Core Memory“ der Technikjournalistin Ashlee Vance argumentierte Altman, dass der Einsatz von „angstbasiertem Marketing“ darauf abziele, die KI in den Händen einer „kleineren Gruppe von Menschen“ zu halten.

„Man kann das auf viele verschiedene Arten rechtfertigen, und einiges davon ist real, so als gäbe es berechtigte Sicherheitsbedenken“, sagte Altman.

„Aber wenn Sie sagen wollen: ‚Wir brauchen die Kontrolle über die KI, nur wir, weil wir vertrauenswürdige Menschen sind‘, denke ich, dass angstbasiertes Marketing wahrscheinlich der effektivste Weg ist, dies zu rechtfertigen.“

Altman fügte hinzu, dass es zwar berechtigte Bedenken hinsichtlich der KI-Sicherheit gebe, „es aber eindeutig unglaubliches Marketing ist, wenn man sagt: ‚Wir haben eine Bombe gebaut. Wir sind dabei, sie auf Ihren Kopf fallen zu lassen. Wir verkaufen Ihnen einen Luftschutzbunker für 100 Millionen US-Dollar. Sie brauchen ihn, um all Ihre Sachen zu durchqueren, aber nur, wenn wir Sie als Kunden auswählen.‘“

Er stellte fest, dass es „nicht immer einfach“ sei, die neuen Fähigkeiten der KI mit der Überzeugung von OpenAI in Einklang zu bringen, dass die Technologie zugänglich sein sollte.

Claude Mythos von Anthropic

Das im letzten Monat vorgestellte Claude-Mythos-Modell von Anthropic hat bei Forschern, Regierungen und der Cybersicherheitsbranche große Aufmerksamkeit auf sich gezogen, insbesondere nachdem Tests ergeben haben, dass es Software-Schwachstellen autonom identifizieren und komplexe Cyber-Operationen ausführen kann. Das Modell wird über ein eingeschränktes Programm nur an eine begrenzte Anzahl von Organisationen verteilt.

Die Einführung spiegelt eine breitere Kluft in der KI-Branche darüber wider, wie leistungsstarke Systeme eingesetzt werden sollten. Einige Unternehmen legen Wert auf kontrollierten Zugriff, andere plädieren für eine breitere Verbreitung, um Innovationen und das Verständnis der Technologie zu beschleunigen.

Mythos ist zu einem zentralen Thema dieser Debatte geworden. Die Fähigkeiten des Modells wurden von Anthropic sowohl als defensiver Durchbruch – der eine schnellere Erkennung kritischer Softwarefehler ermöglicht – als auch als potenzielles Angriffsrisiko bei Missbrauch bezeichnet. Anfang dieses Monats wurden bei Tests Hunderte von Schwachstellen im Firefox-Browser von Mozilla identifiziert und außerdem die Fähigkeit zur Durchführung mehrstufiger Cyberangriffssimulationen nachgewiesen.

Anthropic hat über Project Glasswing den Zugriff auf das System eingeschränkt und ausgewählten Unternehmen, darunter Amazon, Apple und Microsoft, die Möglichkeit gegeben, seine Fähigkeiten zu testen. Das Unternehmen hat außerdem erhebliche Ressourcen für die Unterstützung von Open-Source-Sicherheitsbemühungen bereitgestellt und argumentiert, dass Verteidiger von der Technologie profitieren sollten, bevor sie allgemeiner verfügbar wird.

Sicherheitsexperten warnen, dass die gleichen Fähigkeiten, die es Mythos ermöglichen, Schwachstellen zu identifizieren, auch dazu genutzt werden könnten, diese in großem Umfang auszunutzen. Tests des britischen AI Security Institute ergaben, dass das Modell komplexe Cyberoperationen autonom durchführen kann.

Das Modell hat auch Einschränkungen bestehender KI-Bewertungssysteme aufgedeckt, wobei Anthropic zugibt, dass viele aktuelle Cybersicherheits-Benchmarks nicht mehr ausreichen, um die Fähigkeiten seines neuesten Systems zu messen.

Allerdings behauptete eine Gruppe von Forschern letzte Woche, sie seien in der Lage, die Ergebnisse von Mythos mithilfe öffentlich zugänglicher Modelle zu reproduzieren.

Trotz der Forderungen in Teilen der US-Regierung, den Einsatz der Technologie aufgrund von Bedenken hinsichtlich ihrer möglichen Anwendungen in der Kriegsführung und Überwachung einzustellen, hat die National Security Agency Berichten zufolge damit begonnen, eine Vorschauversion des Modells in geheimen Netzwerken zu testen. Auf dem Prognosemarkt Myriad, der der Muttergesellschaft von Decrypt, Dastan, gehört, gehen die Nutzer mit einer Wahrscheinlichkeit von 49 % davon aus, dass Claude Mythos bis zum 30. Juni der breiten Öffentlichkeit zugänglich gemacht wird.

Altman schlug vor, dass die Rhetorik über hochgefährliche KI-Systeme mit zunehmenden Fähigkeiten zunehmen könnte, argumentierte jedoch, dass nicht alle derartigen Behauptungen für bare Münze genommen werden sollten.

„Es wird viel mehr Gerede über Modelle geben, die zu gefährlich sind, um veröffentlicht zu werden. Es wird auch sehr gefährliche Modelle geben, die auf unterschiedliche Weise veröffentlicht werden müssen“, sagte er. „Ich bin sicher, dass Mythos ein großartiges Modell für Cybersicherheit ist, aber ich denke, wir haben einen Plan, mit dem wir zufrieden sind, wie wir diese Art von Fähigkeit in die Welt hinaustragen.“

Altman wies auch Vorschläge zurück, dass OpenAI seine Infrastrukturausgaben zurückfahren würde, und sagte, das Unternehmen werde seine Rechenkapazität trotz wechselnder Narrative weiter ausbauen.

„Ich weiß nicht, woher das kommt … die Leute wollen wirklich die Geschichte des Rückzugs schreiben“, sagte er. „Aber sehr bald wird es wieder heißen: ‚OpenAI ist so rücksichtslos. Wie können sie so verrückte Summen ausgeben?‘“