Kategoria: „sztuczna-inteligencja

Obserwuj przez RSS
Chiny zapowiadają wdrożenie regulacji prawnych względem czatbotów AI
1.01.2026

Chiny zapowiadają wdrożenie regulacji prawnych względem czatbotów AI

Rząd Chin zapowiedział wprowadzenie nowych regulacji dotyczących czatbotów AI, które mają ograniczyć generowanie treści mogących prowadzić do samookaleczeń, przemocy lub uzależnień. Projekt przewiduje m.in. obowiązek wdrożenia mechanizmów kontroli rodzicielskiej, ludzkiej interwencji w sytuacjach kryzysowych oraz zakaz treści „zagrażających bezpieczeństwu i jedności państwa”.

Wydawnictwo Springer Nature w ogniu krytyki za wydanie książki o AI, która zawierała odwołania do nieistniejących źródeł
15.12.2025

Wydawnictwo Springer Nature w ogniu krytyki za wydanie książki o AI, która zawierała odwołania do nieistniejących źródeł

Wydawnictwo Springer Nature spotkało się z ostrą krytyką za książkę dotyczącą sztucznej inteligencji, która zawierała odniesienia do nieistniejących źródeł. Publikacja, nosząca tytuł „Social, Ethical and Legal Aspects of Generative AI”, wzbudziła kontrowersje po tym, jak dziennik „The Times” ujawnił błędy w przytoczonych materiałach.

Meta Platforms odrzuca oskarżenia o nielegalnym wykorzystaniu ok. 2,4 tys. materiałów pornograficznych, twierdząc, że wykorzystano je „do celów prywatnych”
2.11.2025

Meta Platforms odrzuca oskarżenia o nielegalnym wykorzystaniu ok. 2,4 tys. materiałów pornograficznych, twierdząc, że wykorzystano je „do celów prywatnych”

Meta Platforms złożyła wniosek o odrzucenie pozwu od Strike 3 Company i Counterlife Media, które oskarżają firmę o pozyskanie 2.396 materiałów pornograficznych „od 2018 roku” bez stosownych pozwoleń do treningu modeli sztucznej inteligencji. W odpowiedzi Meta twierdzi, że zarzuty są „przesadzone”, a pobrania tych materiałów były „minimalne”.

OpenAI przyznaje, że omijanie tzw. halucynacji jest „matematycznie niemożliwe”
21.09.2025

OpenAI przyznaje, że omijanie tzw. halucynacji jest „matematycznie niemożliwe”

Nowe badania OpenAI ujawniają, że halucynacje w dużych modelach językowych, polegające na generowaniu fałszywych, ale naturalnie brzmiących odpowiedzi, pozostają istotnym wyzwaniem. Mimo postępów w modelu GPT-5, problem ten wciąż wymaga dalszej analizy i badań nad poprawą dokładności i rzetelności sztucznej inteligencji.

Strona 2 z 3