Print Friendly, PDF & Email

Forschung und Entwicklung in der Künstlichen Intelligenz (KI) haben nach unserer Überzeugung bereits heute zu einer Verbesserung der menschlichen Lebensqualität geführt und werden dies auch weiterhin tun. Aber die Risiken bestimmter KI-Anwendungen sollten nicht vernachlässigt werden.

Ein-Satz-Statement

Am 30.5.2023 wurde ein sogenanntes „Ein-Satz-Statement“ veröffentlicht, in dem vor dem Aussterben der Menschheit durch KI gewarnt wird (https://www.safe.ai/statement-on-ai-risk). Das Statement lautet: „Das Risiko, dass die KI das Aussterben der Menschheit bewirken könnte, sollte neben anderen Risiken von gesellschaftlichem Ausmaß wie Pandemien und Atomkrieg eine globale Priorität sein.“ Unterzeichner sind Verantwortliche großer IT- bzw. KI-Unternehmen sowie sehr renommierte KI-Wissenschaftler. Die Unterzeichner, also auch die Chefs großer KI-Unternehmen, fordern eindringlich Regulierungen für die Anwendungen der KI.

Print Friendly, PDF & Email