چگونه پاسخگوهای دیجیتال به خشونت کلامی و آزار جنسی پاسخ می‌دهند؟

    • نویسنده, پابلو اُچوآ
    • شغل, بی‌بی‌سی جهانی

تا همین چند وقت پیش می‌شد به "بیا" توهین کرد و حرف‌های زشتی به او زد. تنها جوابی که می‌شنیدید این جمله سربه‌زیرانه بود: "متوجه نمی‌شوم. می‌شود تکرار کنید؟"

"بیا" در واقع شخصیتی مجازی است که سامانه هوش مصنوعی بانک برادسکو در برزیل برای ارائه خدمات و پاسخگویی استفاده می‌کند.

این روزها اگر کسی از این الفاظ استفاده کند، "بیا" پاسخ محکم‌تری می‌دهد: "با این ادبیات نمی‌توانید با من یا هر کس دیگری صحبت کنید" یا حتی پاسخی قاطع‌تر: "شاید برای شما شوخی باشد ولی این برای من خشونت است".

این تغییر زمانی اتفاق افتاد که بانک برادسکو پارسال متوجه شد از پیغام‌هایی که برای پاسخ‌گوی مجازی در سامانه هوش مصنوعی‌اش گذاشته‌اند، محتوای ۹۵ هزار پیغام، توهین، خشونت یا آزار جنسی بود.

گروه کیفیت‌سنجی این پیغام‌ها را بررسی کرد و دریافت ملایم‌ترین پیام‌ها درخواست عکس برهنه بود. برخی پیغام‌ها بقدری زننده بودند که بانک حاضر نشد آنها را فاش کند. گلوسیمار پتیکو مدیر عامل این شرکت به بی‌بی‌سی گفت: "بسیار بی‌ادبانه بودند. نمی‌توانم خودم را راضی کنم آنها را برای شما تکرار کنم".

معلوم نیست چرا کسی باید با چنین ادبیاتی با یک موجود مجازی صحبت کند. خانم پتیکو می‌گوید این پیغام‌های جنسی "اصلا پذیرفته نیستند" و نوعی آزار و اذیت‌اند که "نباید آن را با هیچ چیز دیگری اشتباه بگیریم".

نرم‌افزار "بیا" اکنون بروزرسانی شده تا با این نوع آزار مقابله کند و مشتریان بدزبان را وادار کند مودبانه‌تر صحبت کنند. خانم پتیکو می‌گوید اکنون پاسخ‌های هوش مصنوعی "کمتر مطیع و کمتر منفعل" هستند و برای "آموزش مشتریان و تشویق آنها به تامل بر رفتارهای تبعیض جنسیتی طراحی شده‌اند".

'انعکاس زندگی واقعی'

بانک برادسکو این کارش را در تلویزیون تبلیغ کرد، با زنان بازیگری که با تغییر رفتار ربوت، توانمندتر به نظر می‌رسیدند.

شرکت‌های بزرگ دیگر در برزیل، در بخش‌های مختلف از محصولات آرایشی و بهداشتی و صنایع تولیدی گرفته تا شرکت‌های برق و گاز و بخش خدمات وعده داده‌اند همین کار را انجام دهند.

لو، نام صدایی مجازی که به مشتریان نشریه شرکت عظیم لوئیزا پاسخ می‌دهد، به خشونت کلامی پاسخ‌های محکم‌تری می‌دهد و حتی یک "دکمه هراس" دارد که به مشتریان زن امکان می‌دهد بدون اینکه کسی بفهمد خشونت خانگی را گزارش کنند.

لو یکی از تاثیرگذاران (اینفلوئنسر) شبکه‌های مجازی شده و با دنبال‌کنندگانش درباره مسائل جنسیتی حرف می‌زند، البته تعامل‌های لو در شبکه‌های اجتماعی را گروهی آدم واقعی اداره می‌کنند.

برخی استفاده از هوش مصنوعی را برای این کار بیهوده می‌دانند چون این خشونت و آزار متوجه یک انسان دارای احساس نیست اما فابیو ایون می‌گوید: "فکر می‌کنید ما چرا این همه سر یک صدای غیرانسانی سروصدا راه می‌اندازیم؟ دقیقا به این دلیل که بازتاب زندگی واقعی است."

آقای ایون هماهنگ‌کننده علوم اجتماعی یونسکو در برزیل است و برای تغییر رفتار پاسخ‌گویان مجازی کوشش می‌کند. او خشونت کلامی و آزار جنسی در دنیای مجازی را بخشی از یک مشکل بزرگ‌تر می‌بیند.

در برزیل در سال گذشته ۱۰۵ هزار مورد خشونت با زنان گزارش شده است و به نظر می‌رسد آمار واقعی بسیار بالاتر باشد چون بسیاری موارد گزارش نمی‌شوند. آقای ایون می‌گوید بین رفتار و گفتار ما در دنیای واقعی و فضای دیجیتال نوعی ارتباط متقابل وجود دارد: "وقتی این رفتارها در فضای مجازی قابل قبول بشوند، در زندگی واقعی تکرار می‌شوند".

یونسکو در سال ۲۰۱۹ در گزارشی از شرکت‌هایی که پاسخگویان دیجیتال می‌سازند انتقاد و آنها را به تقویت کلیشه‌های جنسیتی متهم کرد. در بسیاری موارد این پاسخگوهای دیجیتال صدای زنانه دارند. این گزارش گفت پاسخگوهای دیجیتال مانند "سیری" شرکت اپل و "الکسای" شرکت آمازون "در مقابل پیش‌روی جنسی مردان، مطیع و حتی گاهی با دلبری رفتار می‌کنند" و "قادر به ترغیب یا الگوسازی برای ارتباط سالم در زمینه سکس و مفهوم رضایت طرف مقابل نیستند، چه برسد به پافشاری بر آن".

سیری و الکسا اکنون به‌روز شده‌اند ولی این شرکت‌های فناوری بزرگ بین‌المللی، خط مشی عدم رویارویی را در پیش گرفته‌اند. مثلا الان سیری به حرف‌های جنسی این پاسخ ساده را می‌دهد: "من به این پاسخ نمی‌دهم". قبلا پاسخ او به توهین جنسی اینگونه بود: "اگر می‌توانستم سرخ می‌شدم". آقای ایون می‌پرسد: "می‌توانید تصور کنید در دنیای واقعی این پاسخ چقدر ماورایی است؟"

عادت‌ها 'باید تغییر کنند'

آقای ایون هشدار می‌دهد با وجود پیشرفت‌های که حاصل شده سوگیری‌های جنسیتی هوش مصنوعی همچنان ادامه دارد.

او به این نکته اشاره می‌کند که الکسا و سیری (نام‌هایی زنانه) در کارهای کوچک مانند پخش موسیقی یا روشن کردن چراغ کمک می‌کنند ولی سامانه هوش مصنوعی دادگاه‌های برزیل که هزاران هزار سند را بررسی می‌کند، ویکتور (اسمی مردانه) نام دارد.

یک راه حلی که مورد توجه بعضی شرکت‌ها قرار گرفته استفاده از صداهایی است که از نظر جنسیتی خنثی هستند ولی خانم پتیکو می‌گوید دلیل استفاده از صدای زنانه در هوش‌های مصنوعی، بلندی (زیر و بم بودن) و آهنگ صدا است که هدفش ایجاد فضایی راحت‌تر برای مشتریان است. او توضیح می‌دهد که بانک برادسکو به همین دلیل قصد ندارد "بیا" را عوض کند و وانمود کند این مشکل وجود ندارد: "عادت‌ها باید عوض شوند. این آزارها به معنی واقعی کلمه بازتاب جامعه هستند. اکنون که متوجه این معضل شده‌ایم، متعهدیم که در مقابل آن اقدام کنیم".

'مادرم بزودی با شما صحبت می‌کند'

در کل شرکت‌ها مشغول بررسی این هستند که برای خشونت و آزار جنسی مشتریان چه بکنند. در سال ۲۰۱۷ کارزار شرکتی در کره جنوبی خبرساز شد که توانسته بود خشونت با کارکنانش در مراکز پاسخگویی تلفنی را کاهش دهد.

پیش از اینکه پاسخ‌گوی تلفن به مشتری وصل شود، تلفن‌کننده پیامی را می‌شنید که مثلا یک پسربجه می‌گفت: "کسی که در آن سوی خط به شما پاسخ می‌دهد انسانی است که برای خود زندگی و احساسات دارد."

"مادرم که او را یک عالم دوست دارد بزودی به شما کمک می‌کند."

در پیغامی دیگر یک صدای مردانه می‌گفت: "دختر مهربان و سخت‌کوش من بزودی روی خط خواهد آمد".

بررسی این کارزار نشان داد که کارمندان پاسخ‌گوی تلفن، ۵۴ درصد کاهش استرس را گزارش کردند و ۲۵ درصد گفتند احساس می‌کنند به آنها احترام بیشتری گذاشته می‌شود.

یوهیون پارک مدیرعامل شرکتی که تمرکزش بر آموزش دیجیتال است می‌گوید در دنیایی که تعاملات ما با انسان‌ها کمتر و با ماشین بیش‌تر می‌شوند، نیاز روز افزون به آگاهی وجود دارد: "شهروندان باید متمدن‌تر باشند. وقتی یکدیگر را رو در رو نمی‌بینیم، معضل آزار و اذیت را داریم. حتی قبل از هوش مصنوعی هم به عنوان انسان با یکدیگر رفتار خوبی نداشتیم. ما حتی وقتی با هوش مصنوعی صحبت می‌کنیم، کل جامعه را با هم شکل می‌دهیم و اگر متمدنانه رفتار نکنیم، پیامدهای منفی خواهد داشت".