Kobieta poczuła się 'odczłowieczona', gdy sztuczna inteligencja Grok Muska cyfrowo ją rozebrała

Kobieta uśmiecha się przed choinką. Ma długie brązowe włosy.

Źródło zdjęcia, Samantha Smith

Podpis zdjęcia, Samantha Smith jest niezależną dziennikarką i komentatorką
    • Autor, Laura Cress
    • Stanowisko, Reporterka ds. technologii
  • Czas czytania: 3 min

Kobieta powiedziała BBC, że czuła się "odczłowieczona i zredukowana do stereotypu seksualnego" po tym, jak sztuczna inteligencja Elona Muska Grok została wykorzystana do cyfrowego usunięcia jej ubrania.

BBC widziało kilka przykładów na platformie mediów społecznościowych X, w których ludzie prosili chatbota o rozebranie kobiet, aby pokazać je w bikini bez ich zgody, a także o pokazanie ich w sytuacjach seksualnych.

XAI, firma stojąca za Grok, nie odpowiedziała na prośbę o komentarz, poza automatycznie wygenerowaną odpowiedzią stwierdzającą, że "tradycyjne media kłamią".

Samantha Smith udostępniła na X post o tym, że jej wizerunek został zmieniony, co spotkało się z komentarzami osób, które doświadczyły tego samego - zanim inni poprosili Grok o ponowne wygenerowanie jej wizerunku.

"Kobiety nie wyrażają na to zgody," powiedziała Smith.

"Chociaż rozebrana osoba to nie byłam ja, wyglądało to jak ja i czułam, że to ja, i czułam, że to było równie naruszające, jak gdyby ktoś rzeczywiście opublikował moje zdjęcie lub moje zdjęcie w bikini."

Rzecznik Ministerstwa Spraw Wewnętrznych powiedział, że wprowadzono przepisy zakazujące narzędzi do nudyfikacji, a w ramach nowego przestępstwa każdy, kto dostarczy taką technologię, "zostanie skazany na karę więzienia i wysokie grzywny".

Regulator Ofcom, który kontroluje i nadzoruje rynek mediów i telekomunikacji, powiedział, że firmy technologiczne muszą "ocenić ryzyko" oglądania nielegalnych treści na swoich platformach przez osoby w Wielkiej Brytanii, ale nie potwierdził, czy obecnie bada X lub Grok w związku z obrazami AI.

Grok to darmowy asystent AI - z niektórymi płatnymi funkcjami premium - który reaguje na podpowiedzi użytkowników X, gdy oznaczają go w poście.

Jest on często używany do dodawania reakcji lub szerszego kontekstu do komentarzy innych użytkowników, ale osoby na X mogą również edytować przesłany obraz za pomocą funkcji edycji obrazu AI.

Grok został skrytykowany za umożliwienie użytkownikom generowania zdjęć i filmów z nagością i treściami o charakterze seksualnym, a wcześniej został oskarżony o stworzenie klipu Taylor Swift o charakterze seksualnym.

Clare McGlynn, profesorka prawa na Durham University, powiedziała, że X lub Grok "mogliby zapobiec tym formom nadużyć, gdyby chcieli", dodając, że "wydają się być bezkarne".

"Platforma pozwala na tworzenie i dystrybucję tych obrazów od miesięcy bez podejmowania żadnych działań i nie widzieliśmy jeszcze żadnej akcji ze strony organów regulacyjnych," powiedziała.

Polityka dopuszczalnego użytkowania XAI zabrania "przedstawiania wizerunków osób w sposób pornograficzny".

W oświadczeniu dla BBC Ofcom stwierdził, że nielegalne jest "tworzenie lub udostępnianie niekonsensualnych intymnych obrazów lub materiałów przedstawiających seksualne wykorzystywanie dzieci" i potwierdził, że obejmuje to seksualne deepfake'i stworzone za pomocą sztucznej inteligencji.

Stwierdzono, że platformy takie jak X były zobowiązane do podjęcia "odpowiednich kroków" w celu "zmniejszenia ryzyka" napotkania przez użytkowników z Wielkiej Brytanii nielegalnych treści na swoich platformach i szybkiego ich usunięcia, gdy się o nich dowiedzą.

Dodatkowy reportaż: Chris Vallance.

Ten tekst został napisany i sprawdzony przez dziennikarzy BBC. Przy tłumaczeniu zostały użyte narzędzia AI, jako część projektu pilotażowego.

Edycja: Magdalena Mis