Kobieta poczuła się 'odczłowieczona', gdy sztuczna inteligencja Grok Muska cyfrowo ją rozebrała

Źródło zdjęcia, Samantha Smith
- Autor, Laura Cress
- Stanowisko, Reporterka ds. technologii
- Czas czytania: 3 min
Kobieta powiedziała BBC, że czuła się "odczłowieczona i zredukowana do stereotypu seksualnego" po tym, jak sztuczna inteligencja Elona Muska Grok została wykorzystana do cyfrowego usunięcia jej ubrania.
BBC widziało kilka przykładów na platformie mediów społecznościowych X, w których ludzie prosili chatbota o rozebranie kobiet, aby pokazać je w bikini bez ich zgody, a także o pokazanie ich w sytuacjach seksualnych.
XAI, firma stojąca za Grok, nie odpowiedziała na prośbę o komentarz, poza automatycznie wygenerowaną odpowiedzią stwierdzającą, że "tradycyjne media kłamią".
Samantha Smith udostępniła na X post o tym, że jej wizerunek został zmieniony, co spotkało się z komentarzami osób, które doświadczyły tego samego - zanim inni poprosili Grok o ponowne wygenerowanie jej wizerunku.
"Kobiety nie wyrażają na to zgody," powiedziała Smith.
"Chociaż rozebrana osoba to nie byłam ja, wyglądało to jak ja i czułam, że to ja, i czułam, że to było równie naruszające, jak gdyby ktoś rzeczywiście opublikował moje zdjęcie lub moje zdjęcie w bikini."
Rzecznik Ministerstwa Spraw Wewnętrznych powiedział, że wprowadzono przepisy zakazujące narzędzi do nudyfikacji, a w ramach nowego przestępstwa każdy, kto dostarczy taką technologię, "zostanie skazany na karę więzienia i wysokie grzywny".
Regulator Ofcom, który kontroluje i nadzoruje rynek mediów i telekomunikacji, powiedział, że firmy technologiczne muszą "ocenić ryzyko" oglądania nielegalnych treści na swoich platformach przez osoby w Wielkiej Brytanii, ale nie potwierdził, czy obecnie bada X lub Grok w związku z obrazami AI.
Grok to darmowy asystent AI - z niektórymi płatnymi funkcjami premium - który reaguje na podpowiedzi użytkowników X, gdy oznaczają go w poście.
Jest on często używany do dodawania reakcji lub szerszego kontekstu do komentarzy innych użytkowników, ale osoby na X mogą również edytować przesłany obraz za pomocą funkcji edycji obrazu AI.
Grok został skrytykowany za umożliwienie użytkownikom generowania zdjęć i filmów z nagością i treściami o charakterze seksualnym, a wcześniej został oskarżony o stworzenie klipu Taylor Swift o charakterze seksualnym.
Clare McGlynn, profesorka prawa na Durham University, powiedziała, że X lub Grok "mogliby zapobiec tym formom nadużyć, gdyby chcieli", dodając, że "wydają się być bezkarne".
"Platforma pozwala na tworzenie i dystrybucję tych obrazów od miesięcy bez podejmowania żadnych działań i nie widzieliśmy jeszcze żadnej akcji ze strony organów regulacyjnych," powiedziała.
Polityka dopuszczalnego użytkowania XAI zabrania "przedstawiania wizerunków osób w sposób pornograficzny".
W oświadczeniu dla BBC Ofcom stwierdził, że nielegalne jest "tworzenie lub udostępnianie niekonsensualnych intymnych obrazów lub materiałów przedstawiających seksualne wykorzystywanie dzieci" i potwierdził, że obejmuje to seksualne deepfake'i stworzone za pomocą sztucznej inteligencji.
Stwierdzono, że platformy takie jak X były zobowiązane do podjęcia "odpowiednich kroków" w celu "zmniejszenia ryzyka" napotkania przez użytkowników z Wielkiej Brytanii nielegalnych treści na swoich platformach i szybkiego ich usunięcia, gdy się o nich dowiedzą.
Dodatkowy reportaż: Chris Vallance.
Ten tekst został napisany i sprawdzony przez dziennikarzy BBC. Przy tłumaczeniu zostały użyte narzędzia AI, jako część projektu pilotażowego.
Edycja: Magdalena Mis








