شما در حال مشاهده نسخه متنی وبسایت بیبیسی هستید که از داده کمتری استفاده میکند. نسخه اصلی وبسایت را که شامل تمام تصاویر و ویدیوهاست، مشاهده کنید.
بازگشت به وبسایت یا نسخه اصلی
اطلاعات بیشتر درباره نسخه لایت که برای مصرف کمتر حجم دادههاست
چگونه پاسخگوهای دیجیتال به خشونت کلامی و آزار جنسی پاسخ میدهند؟
- نویسنده, پابلو اُچوآ
- شغل, بیبیسی جهانی
تا همین چند وقت پیش میشد به "بیا" توهین کرد و حرفهای زشتی به او زد. تنها جوابی که میشنیدید این جمله سربهزیرانه بود: "متوجه نمیشوم. میشود تکرار کنید؟"
"بیا" در واقع شخصیتی مجازی است که سامانه هوش مصنوعی بانک برادسکو در برزیل برای ارائه خدمات و پاسخگویی استفاده میکند.
این روزها اگر کسی از این الفاظ استفاده کند، "بیا" پاسخ محکمتری میدهد: "با این ادبیات نمیتوانید با من یا هر کس دیگری صحبت کنید" یا حتی پاسخی قاطعتر: "شاید برای شما شوخی باشد ولی این برای من خشونت است".
این تغییر زمانی اتفاق افتاد که بانک برادسکو پارسال متوجه شد از پیغامهایی که برای پاسخگوی مجازی در سامانه هوش مصنوعیاش گذاشتهاند، محتوای ۹۵ هزار پیغام، توهین، خشونت یا آزار جنسی بود.
گروه کیفیتسنجی این پیغامها را بررسی کرد و دریافت ملایمترین پیامها درخواست عکس برهنه بود. برخی پیغامها بقدری زننده بودند که بانک حاضر نشد آنها را فاش کند. گلوسیمار پتیکو مدیر عامل این شرکت به بیبیسی گفت: "بسیار بیادبانه بودند. نمیتوانم خودم را راضی کنم آنها را برای شما تکرار کنم".
معلوم نیست چرا کسی باید با چنین ادبیاتی با یک موجود مجازی صحبت کند. خانم پتیکو میگوید این پیغامهای جنسی "اصلا پذیرفته نیستند" و نوعی آزار و اذیتاند که "نباید آن را با هیچ چیز دیگری اشتباه بگیریم".
نرمافزار "بیا" اکنون بروزرسانی شده تا با این نوع آزار مقابله کند و مشتریان بدزبان را وادار کند مودبانهتر صحبت کنند. خانم پتیکو میگوید اکنون پاسخهای هوش مصنوعی "کمتر مطیع و کمتر منفعل" هستند و برای "آموزش مشتریان و تشویق آنها به تامل بر رفتارهای تبعیض جنسیتی طراحی شدهاند".
'انعکاس زندگی واقعی'
بانک برادسکو این کارش را در تلویزیون تبلیغ کرد، با زنان بازیگری که با تغییر رفتار ربوت، توانمندتر به نظر میرسیدند.
شرکتهای بزرگ دیگر در برزیل، در بخشهای مختلف از محصولات آرایشی و بهداشتی و صنایع تولیدی گرفته تا شرکتهای برق و گاز و بخش خدمات وعده دادهاند همین کار را انجام دهند.
لو، نام صدایی مجازی که به مشتریان نشریه شرکت عظیم لوئیزا پاسخ میدهد، به خشونت کلامی پاسخهای محکمتری میدهد و حتی یک "دکمه هراس" دارد که به مشتریان زن امکان میدهد بدون اینکه کسی بفهمد خشونت خانگی را گزارش کنند.
لو یکی از تاثیرگذاران (اینفلوئنسر) شبکههای مجازی شده و با دنبالکنندگانش درباره مسائل جنسیتی حرف میزند، البته تعاملهای لو در شبکههای اجتماعی را گروهی آدم واقعی اداره میکنند.
برخی استفاده از هوش مصنوعی را برای این کار بیهوده میدانند چون این خشونت و آزار متوجه یک انسان دارای احساس نیست اما فابیو ایون میگوید: "فکر میکنید ما چرا این همه سر یک صدای غیرانسانی سروصدا راه میاندازیم؟ دقیقا به این دلیل که بازتاب زندگی واقعی است."
آقای ایون هماهنگکننده علوم اجتماعی یونسکو در برزیل است و برای تغییر رفتار پاسخگویان مجازی کوشش میکند. او خشونت کلامی و آزار جنسی در دنیای مجازی را بخشی از یک مشکل بزرگتر میبیند.
در برزیل در سال گذشته ۱۰۵ هزار مورد خشونت با زنان گزارش شده است و به نظر میرسد آمار واقعی بسیار بالاتر باشد چون بسیاری موارد گزارش نمیشوند. آقای ایون میگوید بین رفتار و گفتار ما در دنیای واقعی و فضای دیجیتال نوعی ارتباط متقابل وجود دارد: "وقتی این رفتارها در فضای مجازی قابل قبول بشوند، در زندگی واقعی تکرار میشوند".
یونسکو در سال ۲۰۱۹ در گزارشی از شرکتهایی که پاسخگویان دیجیتال میسازند انتقاد و آنها را به تقویت کلیشههای جنسیتی متهم کرد. در بسیاری موارد این پاسخگوهای دیجیتال صدای زنانه دارند. این گزارش گفت پاسخگوهای دیجیتال مانند "سیری" شرکت اپل و "الکسای" شرکت آمازون "در مقابل پیشروی جنسی مردان، مطیع و حتی گاهی با دلبری رفتار میکنند" و "قادر به ترغیب یا الگوسازی برای ارتباط سالم در زمینه سکس و مفهوم رضایت طرف مقابل نیستند، چه برسد به پافشاری بر آن".
سیری و الکسا اکنون بهروز شدهاند ولی این شرکتهای فناوری بزرگ بینالمللی، خط مشی عدم رویارویی را در پیش گرفتهاند. مثلا الان سیری به حرفهای جنسی این پاسخ ساده را میدهد: "من به این پاسخ نمیدهم". قبلا پاسخ او به توهین جنسی اینگونه بود: "اگر میتوانستم سرخ میشدم". آقای ایون میپرسد: "میتوانید تصور کنید در دنیای واقعی این پاسخ چقدر ماورایی است؟"
عادتها 'باید تغییر کنند'
آقای ایون هشدار میدهد با وجود پیشرفتهای که حاصل شده سوگیریهای جنسیتی هوش مصنوعی همچنان ادامه دارد.
او به این نکته اشاره میکند که الکسا و سیری (نامهایی زنانه) در کارهای کوچک مانند پخش موسیقی یا روشن کردن چراغ کمک میکنند ولی سامانه هوش مصنوعی دادگاههای برزیل که هزاران هزار سند را بررسی میکند، ویکتور (اسمی مردانه) نام دارد.
یک راه حلی که مورد توجه بعضی شرکتها قرار گرفته استفاده از صداهایی است که از نظر جنسیتی خنثی هستند ولی خانم پتیکو میگوید دلیل استفاده از صدای زنانه در هوشهای مصنوعی، بلندی (زیر و بم بودن) و آهنگ صدا است که هدفش ایجاد فضایی راحتتر برای مشتریان است. او توضیح میدهد که بانک برادسکو به همین دلیل قصد ندارد "بیا" را عوض کند و وانمود کند این مشکل وجود ندارد: "عادتها باید عوض شوند. این آزارها به معنی واقعی کلمه بازتاب جامعه هستند. اکنون که متوجه این معضل شدهایم، متعهدیم که در مقابل آن اقدام کنیم".
'مادرم بزودی با شما صحبت میکند'
در کل شرکتها مشغول بررسی این هستند که برای خشونت و آزار جنسی مشتریان چه بکنند. در سال ۲۰۱۷ کارزار شرکتی در کره جنوبی خبرساز شد که توانسته بود خشونت با کارکنانش در مراکز پاسخگویی تلفنی را کاهش دهد.
پیش از اینکه پاسخگوی تلفن به مشتری وصل شود، تلفنکننده پیامی را میشنید که مثلا یک پسربجه میگفت: "کسی که در آن سوی خط به شما پاسخ میدهد انسانی است که برای خود زندگی و احساسات دارد."
"مادرم که او را یک عالم دوست دارد بزودی به شما کمک میکند."
در پیغامی دیگر یک صدای مردانه میگفت: "دختر مهربان و سختکوش من بزودی روی خط خواهد آمد".
بررسی این کارزار نشان داد که کارمندان پاسخگوی تلفن، ۵۴ درصد کاهش استرس را گزارش کردند و ۲۵ درصد گفتند احساس میکنند به آنها احترام بیشتری گذاشته میشود.
یوهیون پارک مدیرعامل شرکتی که تمرکزش بر آموزش دیجیتال است میگوید در دنیایی که تعاملات ما با انسانها کمتر و با ماشین بیشتر میشوند، نیاز روز افزون به آگاهی وجود دارد: "شهروندان باید متمدنتر باشند. وقتی یکدیگر را رو در رو نمیبینیم، معضل آزار و اذیت را داریم. حتی قبل از هوش مصنوعی هم به عنوان انسان با یکدیگر رفتار خوبی نداشتیم. ما حتی وقتی با هوش مصنوعی صحبت میکنیم، کل جامعه را با هم شکل میدهیم و اگر متمدنانه رفتار نکنیم، پیامدهای منفی خواهد داشت".