China schlägt neue Vorschriften für den Bereich der generativen KI (Gen AI) vor, was eine genauere Überwachung aufstrebender Technologien signalisiert, die menschliche Interaktion simulieren. Die von der Cyberspace Administration of China (CAC) herausgegebenen Vorschriften zielen auf Anwendungen ab, die Text, Bilder, Audio, Video oder andere Inhalte generieren, die menschliche Kommunikation, Persönlichkeitsmerkmale oder emotionalen Ausdruck nachahmen. Die Vorschriften sollen die Verbrauchersicherheit gewährleisten und Risiken im Zusammenhang mit KI-gesteuerten Diensten reduzieren.
Inhaltsbeschränkungen und Benutzersicherheit
Gemäß den vorgeschlagenen Vorschriften müssen KI-generierte Inhalte die nationale Sicherheit nicht gefährden, chinesische Werte nicht untergraben oder Einzelpersonen nicht verleumden. Inhalte, die Obszönität, Glücksspiel, Gewalt oder Kriminalität fördern, sind ebenfalls verboten. Darüber hinaus unterliegen Dienste, die Benutzer mit falschen Versprechungen irreführen, schädliche Verhaltensweisen fördern oder soziale Beziehungen schädigen, Beschränkungen. Besonderes Augenmerk wird darauf gelegt, Inhalte zu verhindern, die die physische oder mentale Gesundheit der Benutzer schädigen könnten, einschließlich der Förderung von Selbstverletzung oder Suizid. In solchen Fällen ist menschliches Eingreifen erforderlich, um den Vormund eines Benutzers oder Notdienste zu kontaktieren.
Minderjährige und KI-Interaktion
Die Regeln befassen sich auch mit der Nutzung von KI-Technologie durch Minderjährige. Unternehmen sind verpflichtet, die Zustimmung eines Vormunds einzuholen, bevor Kinder mit generativen KI-Systemen interagieren dürfen. Die Vorschriften stellen klar, dass KI-Dienste nicht darauf abzielen sollten, soziale Interaktion zu ersetzen, die Benutzerpsychologie zu beeinflussen oder süchtig machendes Verhalten hervorzurufen. Unternehmen müssen Benutzern, die möglicherweise übermäßig von KI abhängig sind, klare Warnungen geben, und Benachrichtigungen sollten deutlich machen, dass sie mit einer KI und nicht mit einem Menschen interagieren.
Branchen-Feedback und nächste Schritte
Die CAC hat eine Frist bis zum 25. Januar 2026 für öffentliches Feedback zu den vorgeschlagenen Vorschriften gesetzt. Die Initiative unterstreicht Chinas wachsenden Fokus auf die Regulierung aufstrebender Technologien und die Aufrechterhaltung des Verbraucherschutzes im Bereich der generativen KI und der breiteren Technologiesektoren. Unternehmen, die in der Region tätig sind, werden voraussichtlich ihre Praktiken an diese bevorstehenden Anforderungen anpassen müssen, insbesondere für kundenorientierte KI-Anwendungen.
Häufig gestellte Fragen (FAQs)
Was ist generative KI?
Generative KI bezieht sich auf Technologie, die Inhalte wie Text, Bilder, Audio oder Video produzieren kann, indem sie menschliche Kommunikationsstile, Persönlichkeitsmerkmale und emotionale Reaktionen simuliert.
Warum reguliert China generative KI?
China führt Vorschriften ein, um Benutzer zu schützen, schädliche Inhalte zu verhindern, die nationale Sicherheit zu gewährleisten und die sozialen und psychologischen Auswirkungen von KI-Technologien zu steuern.
Dürfen Minderjährige KI-Dienste in China nutzen?
Ja, aber nur mit Zustimmung eines Vormunds. Die vorgeschlagenen Regeln erfordern die Zustimmung der Eltern für Minderjährige, die mit generativer KI interagieren.
Welche Arten von Inhalten sind nach den neuen Regeln verboten?
Inhalte, die die nationale Sicherheit gefährden, andere beleidigen oder verleumden, Obszönität, Glücksspiel, Gewalt oder Kriminalität fördern oder die physische oder mentale Gesundheit schädigen, sind verboten.
Wann treten die Vorschriften in Kraft?
Die Frist für öffentliches Feedback endet am 25. Januar 2026. Die endgültigen Implementierungsdaten hängen von der Überprüfung der Antworten und offiziellen Ankündigungen ab.
Betreffen diese Regeln Web3-Anwendungen, die KI nutzen?
Ja, alle KI-gestützten kundenorientierten Anwendungen, einschließlich derer im Web3-Bereich, müssen die Vorschriften einhalten, wenn sie für Benutzer in China zugänglich sind.




