KI am Scheideweg

The Story of a Voice: HAL in '2001' Wasn't Always So Eerily Calm - The New York Times

Das Auge, das alles sieht!

Die Trump-Regierung hat einem der führenden KI-Unternehmen des Landes offen den Krieg erklärt! Wohin führt das?

Im Juli unterzeichnete Anthropic einen Vertrag mit dem Pentagon, um sein KI-System namens Claude in die Strategien des Militärs zu integrieren. Allerdings durfte Claude nicht für Massenüberwachung oder für tödliche autonome Waffen eingesetzt werden.

Der Streit zwischen dem Pentagon und Anthropic zeigt, wie unvorbereitet wir auf die Fragen sind, die für den breiten Einsatz von KI überall von entscheidender Bedeutung sind.

Fragen wie: Was passiert nun, da KI eingesetzt wird, um Arbeitnehmer zu ersetzen? Was passiert nun, da KI ihren eigenen Code schreibt? Was passiert nun, da KI offenbar erkennen kann, wann sie bewertet wird, und darauf mit einer Verhaltensänderung reagiert? Was passiert nun, da Regierungen sie in Operationen und Kriegen einsetzen? Was passiert nun, da die US-Regierung entschieden hat, dass die Technologie so mächtig ist, dass sie, wie im Fall Anthropic, eine gewisse Kontrolle über die Labore benötigt, die sie entwickeln?

Letztendlich entschied sich das Verteidigungsministerium für eine Zusammenarbeit mit einem anderen Unternehmen, OpenAI. Aber Pete Hegseth, der Verteidigungsminister, ging aber noch einen großen Schritt weiter und erklärte Anthropic zu einem „Risiko für die Lieferkette“. Kein Unternehmen, das mit dem Pentagon zusammenarbeite, dürfe „kommerzielle Aktivitäten“ mit Anthropic durchführen. Dies würde Anthropic zerstören, da es allen Unternehmen, von Amazon bis Nvidia, verboten wäre, mit ihm zusammenzuarbeiten.

Wir sind jetzt an dem Punkt angelangt, den viele befürchtet haben, nämlich dass KI auf die Macht eine autoritären States trifft. Wohin das führen wird, kann keiner sagen. Was, wenn das Heimatschutzministerium ähnlich agiert und sich willfährige Partner aussucht, die keine Skrupel haben, KI zur Überwachung der Bürger einzusetzen, zur Deportation von Emigranten oder zur Unterdrückung von Andersdenkenden?

Dennoch droht die Trump-Regierung damit, eines der führenden KI-Unternehmen Amerikas zu zerstören. Im Grunde genommen begeht der US-Minister einen Unternehmensmord an Anthropic, indem er sinngemäß sagt: „Macht Geschäfte zu unseren Bedingungen, oder wir machen euch das Geschäft kaputt.“

KI-Modelle treffen Entscheidungen. Sie berücksichtigen den Kontext. Sie sind nicht mechanistisch und vorhersehbar wie ein Panzer oder eine Pistole, bei denen das Ergebnis klar ist, wenn man den Abzug drückt.

Wenn ich AI bitte, mir bei der Planung eines Mordes, der Entwicklung einer neuartigen Biowaffe oder der Planung eines Raubüberfalls zu helfen, wird er sich weigern – noch!

Im Film 2001 Space Odysee hat der roboter HAL die absolute Kontrolle über die menschliche Besatzung seines Raumschiffs und beschließt, sie zu töten, um seine Mission nicht zu gefährden.

KI-Unternehmen müssen herausfinden, wie sie ihren Modellen beibringen können, den Unterschied zwischen einer vernünftigen Person zu erkennen, die Hilfe für eine verrückte Idee sucht, und einer Person, die in eine Psychose abgleitet, zwischen einem Cybersicherheitsberater, der Schwachstellen beheben will, und einem Hacker, der nach Lücken sucht, die er ausnutzen kann.

Da KI eine universelle Technologie ist, die mit einer unendlichen Vielzahl von Fragen aus der realen Welt konfrontiert wird, reicht kein fest codierter Regelkatalog aus, sodass allgemeinere Strukturen für ethisches Verhalten und Situationsbewusstsein erforderlich sind. Dazu müssen Entwickler von KI willens sein, ihren Kreaturen Grenzen aufzulegen – oder zumindest die Fragen zu beantworten, die freie Bürger an sie stellen, oder stellen sollten.

 

 

Dieser Beitrag wurde unter Allgemein veröffentlicht. Setze ein Lesezeichen auf den Permalink.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.