Kritiken

Microsoft verbietet DeepSeek-App wegen Befürchtungen über Daten und Propaganda

microsoft-bars-deepseek-app-über-daten-und-propaganda-befürchtungen

Brief

  • Microsoft verbietet DeepSeek für Mitarbeiter wegen der Speicherung von Nutzerdaten auf chinesischen Servern und Propaganda-Sorgen.
  • Trotz der Aktivierung des R1-Modells von DeepSeek in Azure bleibt die App wegen Sicherheits- und Inhaltskontrollrisiken gesperrt.
  • Im Gegensatz zu einigen KI-Konkurrenten muss DeepSeek strenger durchgesetzt werden, da Microsoft zwischen Geschäfts- und Sicherheitsanforderungen abwägt.

Microsoft hat offiziell bestätigt, dass es seinen Mitarbeitern verboten ist, auf die DeepSeek aufgrund erheblicher Bedenken hinsichtlich der Datensicherheit und der Bedrohung durch Propaganda. Brad Smith, stellvertretender Vorsitzender und Präsident von Microsoft, gab vor dem Senat die Entscheidung bekannt, die Verwendung der App nicht zuzulassen, und bestätigte, dass DeepSeek als Schutzmaßnahme nicht in Microsofts eigenem App-Store zu finden ist.

Dies ist die erste Gelegenheit Microsoft hat sein Verbot öffentlich diskutiert, obwohl andere Organisationen und Länder bereits ähnliche Beschränkungen verhängt haben. Ausschlaggebend für Microsofts Entscheidung ist die Tatsache, dass DeepSeek Nutzerdaten auf Servern in China speichert, wo der Zugriff auf diese Daten aufgrund von Gesetzen möglich ist, die die Zusammenarbeit mit Geheimdiensten vorschreiben.

Sicherheitsrisiken und strategische Anpassungen

Neben der Sorge um den Speicherort der Daten befürchtet das Unternehmen auch eine mögliche Manipulation der Inhalte durch staatliche Interessen und verweist auf das reale Risiko, dass die Antworten durch Botschaften der chinesischen Regierung beeinflusst werden. Die DeepSeek-Anwendung ist auch dafür bekannt, dass sie Informationen zu Themen, die die chinesische Regierung für kontrovers hält, stark einschränkt.

Interessanterweise hat Microsoft die Unterstützung für das R1-Modell von DeepSeek über seine Azure-Plattform Anfang dieses Jahres aktiviert, kurz nachdem das Tool weithin Aufmerksamkeit erregt hatte. Diese Vereinbarung unterscheidet sich von der Verteilung der DeepSeek-App selbst, da das Modell quelloffen ist und jeder es unabhängig hosten kann, um direkte Datenübertragungen nach China zu vermeiden.

Dennoch bestehen weiterhin Bedenken hinsichtlich der weiterreichenden Risiken, wie z. B. der Möglichkeit, dass das KI-Modell Fehlinformationen verbreitet oder Schwachstellen in dem von ihm generierten Code aufdeckt. Während seiner Aussage erwähnte Smith auch, dass Microsoft direkt in das Modell von DeepSeek eingegriffen hat, um bestimmte schädliche Elemente zu entfernen, obwohl das Unternehmen diese Änderungen nicht im Detail erläuterte.

Berichten zufolge wurde DeepSeek vor der Bereitstellung auf Azure einer gründlichen Sicherheitsüberprüfung unterzogen, die Microsoft als intensives Red Teaming und Risikobewertung bezeichnete. Microsofts Entscheidung, DeepSeek einzuschränken, unterscheidet sich von seinem Umgang mit anderen KI-Chat-Konkurrenten, wobei Optionen wie Perplexity Chat für Windows-Nutzer weiterhin verfügbar sind.

Es ist bemerkenswert, dass ähnliche Beschränkungen nicht konsequent gegen jede konkurrierende KI-Anwendung durchgesetzt werden, da mehrere Angebote von Google, einschließlich seines Browsers und Chatbots, nicht im Microsoft-Webstore aufgeführt sind. Diese selektive Politik verdeutlicht die komplexe Landschaft der App-Verfügbarkeit bei der Abwägung von Geschäftsinteressen und nationalen Sicherheitsprioritäten.

AKTIE

Einen Kommentar hinzufügen

Was passiert in der KI?

Bleiben Sie mit täglichen KI-Tools, Updates und wichtigen Erkenntnissen auf dem Laufenden.

AIBuzzNow anhören - Wählen Sie Ihre Plattform

Das sieht in der App besser aus

Wir verwenden Cookies, um Ihre Erfahrung auf unserer Website zu verbessern. Wenn Sie diese Seite weiterhin nutzen, gehen wir davon aus, dass Sie damit zufrieden sind.

Anmelden / Registrieren

Werden Sie Teil der AI-Community, die immer einen Schritt voraus ist