Google hat seit der ersten Veröffentlichung im Jahr 2018 eine der inhaltlichsten Änderungen an den KI -Prinzipien vorgenommen. In einer Änderung der Washington Post bearbeitete der Suchriese das Dokument, um Zusagen zu entfernen, die es verspricht, es würde nicht „entwerfen oder einsetzen“, um Versprechen zu entfernen, die nicht „entwerfen oder bereitstellen“ würden. KI -Werkzeuge zum Einsatz in Waffen oder Überwachungstechnologie. Zuvor enthielten diese Richtlinien einen Abschnitt mit dem Titel „Anträge, die wir nicht verfolgen werden“, die in der aktuellen Version des Dokuments nicht vorhanden ist.
Stattdessen gibt es jetzt einen Abschnitt mit dem Titel „Verantwortliche Entwicklung und Bereitstellung“. Dort, so Google, wird es „angemessene menschliche Überwachung, Due Diligence und Feedback -Mechanismen umsetzen, um sich an Benutzerzielen, soziale Verantwortung und allgemein anerkannte Grundsätze des internationalen Rechts und der Menschenrechte zu entsprechen“.
Dies ist eine weitaus breitere Verpflichtung als die spezifischen, die das Unternehmen erst Ende letzten Monats vorgenommen hat, als die vorherige Version seiner KI -Prinzipien noch auf seiner Website live lag. In Bezug auf Waffen sagte das Unternehmen beispielsweise zuvor, dass es keine KI für den Einsatz in „Waffen oder anderen Technologien, deren Hauptzweck oder Umsetzung darin besteht, die Menschen zu verursachen oder direkt zu erleichtern“. Die KI -Überwachungsinstrumente sagte, das Unternehmen würde keine Technologie entwickeln, die „international akzeptierte Normen“ verstoßen.
Auf die Frage nach einem Kommentar richtete ein Google -Sprecher Engadget auf einen Blog -Beitrag, den das am Donnerstag veröffentlichte Unternehmen veröffentlicht hat. Darin, DeepMind-CEO Demis Hassabis und James Manyika, Senior Vice President für Forschung, Labors, Technologie und Gesellschaft bei Google, müssen AI als „allgemeine Technologie“ eine Veränderung der Richtlinien erfordert.
„Wir glauben Wachstum und unterstützt die nationale Sicherheit „, schrieben die beiden. „… Leitet von unseren KI Spezifische Arbeiten durch sorgfältige Bewertung, ob die Vorteile das potenzielle Risiko erheblich überwiegen. „
Als Google seine KI -Prinzipien im Jahr 2018 zum ersten Mal veröffentlichte, tat dies nach dem Projekt Maven. Es war ein kontroverser Regierungsvertrag, der Google beschlossen hätte, ihn zu erneuern, und das Unternehmen für die Analyse von Drohnenmaterial AI -Software für das Verteidigungsministerium zur Verfügung gestellt hätte. Dutzende von Google -Mitarbeitern kündigten das Unternehmen aus Protest gegen den Vertrag, wobei Tausende weitere eine Petition in Opposition unterschrieben. Als Google schließlich seine neuen Richtlinien veröffentlichte, teilte CEO Sundar Pichai Berichten zufolge mit, dass er die Hoffnung habe, „den Test der Zeit“ zu bestehen.
Bis 2021 begann Google jedoch erneut mit der Verfolgung von militärischen Verträgen, wobei Berichten zufolge ein „aggressives“ Angebot für den gemeinsamen Cloud -Cloud -Vertrag des Pentagon des Pentagon war. Zu Beginn dieses Jahres berichtete die Washington Post, dass Google -Mitarbeiter wiederholt mit dem Verteidigungsministerium Israels zusammengearbeitet hatten, um die Verwendung von KI -Tools durch die Regierung zu erweitern.