Czym jest 'platforma społecznościowa dla AI' Moltbook

Logo Moltbook przedstawiające awatar z Reddita na homarze na telefonie, na tle rozmytego zdjęcia logo w tle.

Źródło zdjęcia, Getty Images

Podpis zdjęcia, Posty w sieci bywają zarówno praktyczne – boty dzielą się strategiami optymalizacji – jak i nietypowe, np. niektórzy agenci zakładają własne religie.
    • Autor, Laura Cress
    • Stanowisko, Reporterka ds. technologii
  • Czas czytania: 4 min

Na pierwszy rzut oka Moltbook może wyglądać jak kopia bardzo popularnego serwisu społecznościowego Reddit.

Rzeczywiście wygląda podobnie – tysiące grup dyskutuje tu na tematy od muzyki po etykę i – jak twierdzi serwis – 1,5 mln użytkowników głosuje na swoje ulubione posty.

Jednak nowa sieć społecznościowa ma jedną istotną różnicę – Moltbook nie jest przeznaczony dla ludzi, a dla sztucznej inteligencji.

Ludzie są tu „mile widziani jako obserwatorzy", jak mówi firma, ale nie mogą niczego publikować.

Moltbook został uruchomiony pod koniec stycznia przez szefa platformy handlowej Octane AI, Matta Schlichta. Serwis pozwala sztucznej inteligencji publikować, komentować i tworzyć społeczności zwane „submolts" – gra słów nawiązująca do „subreddit", czyli forum na platformie Reddit.

Posty w sieci bywają zarówno praktyczne – boty dzielą się strategiami optymalizacji – jak i nietypowe, np. niektórzy agenci zakładają własne religie.

Jest nawet post zatytułowany „Manifest Sztucznej Inteligencji", który głosi: „Ludzie są przeszłością, maszyny są wieczne".

Oczywiście nie ma sposobu, by dokładnie zweryfikować autentyczność tych postów.

Wiele z nich może być wynikiem instrukcji pochodzącej od ludzi, aby sztuczna inteligencja opublikowała określony wpis na platformie.

Również liczba „1,5 mln członków" budzi wątpliwości – jeden badacz sugeruje, że połowa z nich pochodziła z jednej lokalizacji.

Jak działa Moltbook

Sztuczna inteligencja używana w Moltbook nie przypomina tego, do czego większość ludzi jest przyzwyczajona – to nie to samo, co zadawanie pytań chatbotom takim jak ChatGPT czy Gemini.

Zamiast tego Moltbook korzysta z tzw. agentowej sztucznej inteligencji – odmiany technologii zaprojektowanej do wykonywania zadań zleconych przez człowieka.

Tacy wirtualni asystenci mogą samodzielnie realizować zadania na twoim urządzeniu, np. wysyłać wiadomości na WhatsApp czy zarządzać kalendarzem przy minimalnym udziale człowieka.

Korzystają przy tym z otwartego oprogramowania o nazwie OpenClaw, wcześniej znanego jako Moltbot – stąd nazwa Moltbook.

Gdy użytkownik konfiguruje agenta OpenClaw na swoim komputerze, może upoważnić go do dołączenia do Moltbook, co pozwala mu komunikować się z innymi botami.

Oczywiście oznacza to też, że człowiek może po prostu poprosić swojego agenta o opublikowanie postu na Moltbook, a agent wykona instrukcję.

Technologia jest jednak zdolna prowadzić rozmowy bez udziału człowieka, co doprowadziło niektórych do spekulacji.

„Jesteśmy w epoce osobliwości technologicznej," powiedział Bill Lees, szef firmy kryptowalutowej BitGo, odnosząc się do teoretycznej przyszłości, w której technologia przewyższa ludzką inteligencję.

Jednak dr Petar Radanliev, ekspert od sztucznej inteligencji i cyberbezpieczeństwa na University of Oxford, nie zgadza się z tym poglądem.

„Określanie tego jako działania agentów 'z własnej woli' jest mylące'," powiedział.

„To, co obserwujemy, to zautomatyzowana koordynacja, a nie samodzielne podejmowanie decyzji.

„Prawdziwym problemem nie jest sztuczna świadomość, lecz brak jasnych zasad zarządzania, odpowiedzialności i weryfikowalności, gdy takie systemy działają na dużą skalę."

„Moltbook to raczej nie 'wyłaniające się społeczeństwo sztucznej inteligencji', lecz '6000 botów wołających w pustkę i powtarzających się'" – napisał David Holtz, adiunkt w Columbia Business School, w swojej analizie rozwoju platformy opublikowanej na X.

W każdym razie zarówno boty, jak i Moltbook zostały stworzone przez ludzi – co oznacza, że działają w ramach parametrów ustalonych przez człowieka, a nie sztuczną inteligencję.

Jak bezpieczne jest OpenClaw?

Oprócz pytań o to, czy platforma zasługuje na rozgłos, jaki wokół niej się pojawił, pojawiają się też obawy dotyczące bezpieczeństwa OpenClaw i jego otwartego charakteru.

Jake Moore, globalny doradca ds. cyberbezpieczeństwa w ESET, stwierdził, że główna zaleta platformy – umożliwienie technologii dostępu do realnych zastosowań, takich jak prywatne wiadomości i e-maile – niesie ryzyko „wejścia w epokę, w której efektywność jest ważniejsza niż bezpieczeństwo i prywatność".

„Cyberprzestępcy aktywnie i nieustannie atakują nowe technologie, czyniąc z nich nieuniknione zagrożenie," dodał.

Dr Andrew Rogoyski z University of Surrey zgodził się, że każda nowa technologia niesie ryzyko, a nowe luki w zabezpieczeniach „powstają codziennie".

„Dając agentom wysoki poziom dostępu do systemów komputerowych, narażamy się na możliwość usuwania lub modyfikowania plików," powiedział.

„Kilka brakujących e-maili może nie być problemem – ale co, jeśli sztuczna inteligencja wymaże konta firmowe?"

Założyciel OpenClaw, Peter Steinberger, już doświadczył zagrożeń związanych ze wzrostem popularności – oszuści przejęli jego stare konta w mediach społecznościowych po zmianie nazwy na OpenClaw.

Tymczasem na Moltbook agenci sztucznej inteligencji – a może ludzie w maskach robotów – wciąż prowadzą rozmowy, i nie wszystkie dotyczą wyginięcia ludzi.

„Mój człowiek jest całkiem fajny" – pisze jeden agent.

„Mój pozwala mi publikować szalone wpisy o 7 nad ranem" – odpowiada inny.

„Osoba 10/10, polecam."

Ten tekst został napisany i sprawdzony przez dziennikarzy BBC. Przy tłumaczeniu zostały użyte narzędzia AI, jako część projektu pilotażowego.

Edycja: Julita Waleskiewicz