Chiny zapowiadają wdrożenie regulacji prawnych względem czatbotów AI

Rząd Chin zapowiedział wprowadzenie nowych regulacji dotyczących czatbotów AI, które mają ograniczyć generowanie treści mogących prowadzić do samookaleczeń, przemocy lub uzależnień. Projekt przewiduje m.in. obowiązek wdrożenia mechanizmów kontroli rodzicielskiej, ludzkiej interwencji w sytuacjach kryzysowych oraz zakaz treści „zagrażających bezpieczeństwu i jedności państwa”.

Do napisania tego artykułu użyto maszynowego tłumaczenia z języka chińskiego (do objaśnienia wybranych paragrafów z niedawnego projektu ustawy).

Jak podaje BBC, rząd chiński zapowiedział wdrożenie regulacji prawnych względem czatbotów AI, które mają polegać na nakazaniu ich operatorom wprowadzenie zabezpieczeń ograniczających odpowiedzi sugerujących, jak zaszkodzić sobie albo innym. Odpowiedzi generowane za pomocą modeli językowych wspierających czatboty mają także nie promować hazardu.

Zapowiedź regulacji pojawia się w kontekście gwałtownego wzrostu popularności czatbotów AI w ostatnich latach, zarówno w Chinach, jak i w reszcie świata.

Własne ramy prawne dla rozwoju i stosowania systemów opartych na sztucznej inteligencji przyjęła również Unia Europejska. W 2024 roku uchwalony został unijny AI Act, którego celem jest ograniczenie negatywnych skutków stosowania systemów AI wysokiego ryzyka, w tym m.in. zakazanie zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej, z nielicznymi wyjątkami (np. nakaz sądowy) – których do polskiego porządku prawnego nie przeniesiono.

Projekt regulacji został opublikowany 27 grudnia 2025 roku na stronie chińskiego ministerstwa cyfryzacji (Cyberspace Administration of China).

W artykule 7 tego dokumentu wymieniono, że czatboty nie mogą generować zawartości, która narusza obowiązujące normy społeczne, ale też tej, która „zagraża bezpieczeństwu narodowemu, godzi w honor i interesy państwa lub podważa jedność narodową”.

Z kolei artykuł 12 tego dokumentu nakłada na operatorów czatbotów obowiązek wdrożenia mechanizmów kontroli rodzicielskiej oraz tych ograniczających czas spędzany z tymi narzędziami.

Kontrola rodzicielska ma obejmować m.in. świadczenie usług wsparcia emocjonalnego za pomocą czatbotów AI – w takich sytuacjach wymagana byłaby uprzednia zgoda opiekuna prawnego.

W przypadku, gdyby w trakcie konwersacji użytkownik próbowałby uzyskać informacje na temat zaszkodzenia samemu sobie, kontrolę nad konwersacją miałby przejąć człowiek, który by poinformował o zaistniałej sytuacji opiekuna prawnego, albo wybraną osobę do tego typu kontaktów.

Źródła

Zdjęcie tytułowe pochodzi ze strony pixabay.com i jest ono dostępne na licencji Pixabay Content License. Treść artykułu powstała na podstawie następujących źródeł tekstowych i/lub audiowizualnych:


Udostępnij ten artykuł:

Wesprzyj „Kontrabandę”!

„Kontrabanda” jest portalem, na którym nie ma reklam, nadmiaru treści sponsorowanych ani też clickbaitów. Prowadzimy go w pięć osób z zamiłowania do technologii. Z tego względu naszym jedynym źródłem utrzymania się są na ten moment dobrowolne datki.

Przemyśl przelanie nam nawet kilku złotych miesięcznie jedną z wybranych metod, żeby „Kontrabanda” mogła się rozwijać. Dziękujemy!

Nie jesteś w stanie wesprzeć nas finansowo w tej chwili? Żaden problem. Wystarczy już nawet to, że przekażesz dalej artykuł napisany na „Kontrabandzie”, taki jak ten, który obecnie czytasz.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Komentując, pamiętaj o przestrzeganiu regulaminu prowadzenia dyskusji. Jeżeli masz konto w Fediwersie, Twój komentarz się tutaj również pojawi po przejściu moderacji.