مصنوعي ځيرکتیا د ښځو پر وړاندې تاوتریخوالي کې څه ونډه لري؟

د عکس سرچینه، Getty Images
- Author, جوي سليم
- دنده, بي بي سي عربي
کلونه وړاندې، د برازیل یوه لوی بانک "برادیسکو" اعلان وکړ چې د دوی مجازي مرستیالې، چې ښځینه غږ لري او "بیه" نومېږي، هره ورځ د پېرودونکو لخوا د جنسي سپکاوي او تاوتریخوالي ګواښونه ترلاسه کوي.
داسې جملې لکه: "زه به درباندې جنسي تیری وکړم"، "زه دې لوڅه غواړم"، او نورې ډېرې سختې بې شرمه خبرې یوازې د دې لپاره چاټ بوټ ته وشوې چې هغه په ښځینه غږ پېژندل شوی و. یوازې په ۲۰۲۰ کال کې، "بیه" ته نږدې ۹۵ زره پیغامونه رسېدلي چې د جنسي ځورونې په توګه طبقه بندي کېدلی شي. دا یوازینۍ پېښه نه وه، دا د ډېر بېلګو یوه ده چې په کې د ښځینه غږ لرونکي چاټ بوټونه، په ګډون د اپل او ایمیزون "سیري" (Siri) او "الیکسا" (Alexa)، لفظي تاوتریخوالي سره مخ شوي چې په مخامخ ډول د جنسیت پر بنسټ تاوتریخوالی ته دوام ورکوي، څه چې لا دمخه په ډیجیټل نړۍ کې لیدل شوي دي. په وروستیو کلونو کې د مصنوعي ځيرکتیا (AI) د وسایلو له پراخېدا سره، دا واقعیت کم شوی نه، لا ډېر شوی. څېړنې او پلټنې په ګوته کوي چې دې ټیکنالوژیکي چټکتیا د ښځو پر وړاندې ډیجیټلي تاوتریخوالی نور هم ژور او پراخ کړی دی.
دلته دوه بنسټي پوښتنې راپورته کېږي: څنګه د مصنوعي ځيرکتیا وسایلو د ښځو پر وړاندې د ډیجیټل تاوتریخوالي په نوي کولو او بیا تولید کې مرسته کړې ده؟ او څنګه الګوریتمونو، د خپلو معلوماتو، روزنې او ډیزاین له لارې، د ډیجیټلي کلتور کې ګډو نارینه وو ته داسې څه په میراث وروړي، د دې پر ځای چې د هغې په له منځه وړلو کې مرسته وکړي، بیا یې تولید او پراخوي؟
د ښځو کړول د ساعت تېرۍ لپاره

د عکس سرچینه، Getty Images
په داسې یو حقیقت کې چې په زیاتېدونکي ډول د "ویسټ ورلډ" (Westworld) لړۍ یادونه کوي، نن ورځ داسې ویب پاڼې او اپلیکیشنونه شته چې اې ای کاروي او نارینه وو ته اجازه ورکوي چې پر شخصیتونو، چې ډیر کله ښځې یا نابالغه نجونې وي، ورسره "له پایلو پرته تاوتریخوالی" وکړي. معنا دا چې هیڅ ترې په لاس نه راوړي یوازې د چا کړول وي.
لورا بېټس (Laura Bates) چې څو میاشتې مخکې یې په ګارډین ورځپاڼه کې یوه مقاله خپره کړې وه، دا په ګوته کوي چې لوی ژبني ماډل "لاما" (Llama) د "چوپ اې ای" (Chai AI) په ډیزاین کې مرسته کړې ده. دا یو داسې بڼه ده چې کاروونکو ته اجازه ورکوي د اې ای روبوټونو سره خبرې وکړي او په رول لوبولو (role-play) کې ګډون وکړي چې تاوتریخجن او ناقانونه کړې په کې لیدل کېږي. د میاشتې یوازې ۵ ډالرو په بدل کې، کاروونکي کولی شي یوې ډیجیټلي "فاحشه خانې" ته ننوځي چې له ۱۵ کلونو کم عمر لرونکو "نجونو" لخوا پرمخ وړل کېږي، او په ویب پاڼه کې د "بې فیمینیزمې نړۍ" په توګه وړاندې کیږي. بېټس په دې اند ده چې دا ویب پاڼه، چې میلیونونه ډالر عاید لري، یوازې له هغو زرو اپلیکیشنونو یوه ده چې دا نوي ټیکنالوژي کاروي دا به "زموږ راتلونکي کې د ښځو کرکه پر وړاندې کرکه ژوره کړي" په دې اپلیکیشنونو کې، نارینه کولی شي جعلي جنسي عکسونه جوړ کړي، خپاره یې کړي او پر ښځو د ترهې او وېرې اچولو وسیله یې وګرځوي. جنسي روبوټونه په خورا چټکۍ سره وده کوي، او ځینې تولیدوونکو مجازي چاپیریال رامینځته کړی چې کاروونکو ته اجازه ورکوي د جنسي تیري تقلید وکړي. هم مهاله، اوس میلیونونه نارینه لا دمخه د اې ای "ملګرې" مجازي ملګرې کاروي، چې په ۲۴ ساعتونه ورسره وي، چې هر څه ډول یې وغواړي په مجازي ډول یې کاروي او د خپلو هیلو او غوره توبونو سره سم د دوی بڼه او شخصیت ډیزاین کیدی شي.
په دې توګه، دا پلیټ فارمونه د "ویسټ ورلډ" نړۍ ته نږدې کیږي: هغه فضا چې د کنټرول او تاوتریخوالي لېوالتیا پر مصنوعي ښځو ازمویل کېږي، چې له ښځو سره کرکه او د جنسیت پر بنسټ تاوتریخوالی په یو عادي تفریحي تجربه بدل شي.
زوړ تاوتریخوالی، نوې بڼه

د عکس سرچینه، Getty Images
د نیویارک د کورني تاوتریخوالي مخنیوي دفتر لخوا خپاره شوي راپور کې ویل شوي چې د انټرنېټ ۹۶ سلنه "ډیپ فېک" (Deepfake) ویډیوګانې جنسي توکي دي، او د دوی ۹۹ سلنه قربانیانې ښځې دي. مصنوعي ځيرکتیا د زاړه تاوتریخوالي لپاره نوي وسایل وړاندې کړي چې په ډیجیټل نړۍ کې پخې ریښې لري. تر دې وروستیو پورې، د جنسي عکسونو جعلي کولو وخت، تخنیکي مهارتونو او ځانګړي سافټویر ته اړتیا درلوده. خو نن ورځ، د اې ای عکس اپونو دا چاره اسانه کړې، د هر چا د لاس رسي وړ ده، او لاسوندونه یې نامعلومه کړې دي. د یوې ښځې یو عام عکس، لکه یوه ښځه چې پر انسټګرام عکس خپروي، په ثانیو کې په یو ښکاره جنسي منځپانګه اړول کېدلی شي. د ستراتیژیک ډیالوګ انسټیټیوټ (Institute for Strategic Dialogue) د ۲۰۲۵ کال د اکټوبر په میاشت کې خپره شوې یوې مطالعې کې، د "عکسونو د لوڅولو" (image stripping)، جنسي "ډیپ فېک" او شخصي عکسونو سره د لاسوهنې لپاره د وسایلو یوه بشپړه شبکه مستند کړې، چې ډېر یې په لویه کچه ښځې په نښه کوي. د اې ای وسایلو د سرغړونو لپاره کار اسانه کوي، ځکه چې جنراټیف ماډلونه کولی شي دا ډول څه تولید کړي: جعلي جنسي کیسې، په طبیعي ژبه جوړ شوي ګواښونه، د باج غوښتنې لپاره تولید شوي انځورونه، او جعلي سکرین شاټونه یا جوړې شوې خبرې چې په بشپړ ډول ریښتیني برېښي. د حقوقي څېړونکې رنجیتا ډی سلوا ډی الویس په ۲۰۲۴ کال کې په یوه خپره شوې څېړنیزه مقاله کې دا چاره "ډیجیټل شوی تاوتریخوالی" (Digitized Violence) بولي، او په ګوته کوي چې د اې ای پر مټ رادبره شوی جنسي تاوتریخوالی "د ښځو د ځپلو په اړخ کې تر ټولو نوې جبهه" ګرځېدلې ده.
عرب نړۍ کې یې بېلګې

د عکس سرچینه، Getty Images
کله چې په دې وروستیو کې د اې ای تولید شوي عکسونو دود عام شو چې یو څوک خپل ځان یا بل څوک غېږ کې نیسي، ډېرو مصري پاڼو د نیرې اشرف ( دیوې وژل شوې مصرۍ زده کونکې ) یو جعلي عکس خپور کړ چې هغې ته د خپل قاتل په غېږ کې ځای ورکړل شوی و، په چا چې د اعدام سزا پلي شوې وه. دغه عکس پر ټولنیزو رسنیو د غوسې څپه راپورته کړه، په داسې حال کې چې ځینو محافظه کاره او نارینه پلوه پاڼو هم دا عکس خپور کړ، چا چې له پېښې راهیسې د قاتل دفاع کوله او پر قرباني یې د "بدنامۍ" پړې اچولې. دا یوازینۍ پېښه نه ده، د هغو زیاتېدونکې لړۍ یوه ده چې په کې ډیجیټلي لاسوهنه، لکه ساده اې ای اپلیکیشنونه او د مخونو د ترکیب ټیکنالوژي، د سیمې د ښځو د ځورولو او بدنامولو لپاره کارول کیږي.
په مصر کې، د عامه څارنوالۍ معلومات او د سیمه ییزو بنسټونو راپورونه په ګوته کوي چې د ښځو پر وړاندې ډېر د انلاین باج اخیستنې (electronic extortion) قضیې پر لاس جوړ شویو جنسي عکسونو تکیه کوي چې د ځيرکو ټلیفونونو پر مټ تولید شوي دي.
په عراق کې، د بشري حقونو څار سازمان (Human Rights Watch) د جعلي "شخصي" ویډیوګانو خپرېدل مستند کړي چې د ښځینه سیاستوالو او خبریالانو د چوپولو لپاره کارول شوي دي. په مراکش کې، د ملي امنیت عمومي ریاست د تولید شوي یا ډیجیټل په وسیله جوړو شويو عکسونو په کارولو سره د باج اخیستنې سلګونه قضیې ثبت کړې دي، په داسې حال کې چې د اردن د بریښنايي جرمونو ادارې خبرداری ورکړی چې د نجونو او نابالغانو په نښه کول د جنسي "ډیپ فېک" (Deepfake) منځپانګه زیاته شوې ده.
په لبنان کې، سازمانونو لکه "سمیکس" (SMEX) او "ډیجیټل رایټس لبنان یو شمیر قضیې مستند کړې چې په کې فعالانې او خبریالانې د ډارولو او چوپولو په موخه په ټیلیګرام کې پر تړلو ګروپونو د جعلي عکسونو او ویډیوګانو له خپرېدو سره مخ شوي دي.
اې ای او د نارینه لید پوهېدنه

د عکس سرچینه، Getty Images
د دې جلا جلا واقعیتونو تر شا، یو ژور حقیقت پټ دی، او هغه دا چې تاوتریخوالی یوازې د کاروونکو له ډډې نه راځي، ورسره د تخنیکي جوړښتونو لاس هم شته. مصنوعي ځيرکتیا یوازې پر ښځو د تاوتریخوالي کړنو ته اجازه نه ورکوي، د ښځو پر وړاندې د کرکجنو ډیجیټل جوړښتونو زده کړه هم ور کوي. د دې الګوریتمونه پر مټ هغه متعصب او د کرکې وړ معلوماتو په نښه شوي چې یو بریښنایی نړۍ پرې چلېږي. څېړونکو تل دغه څه د " نارینه پلوه جوړښت" په توګه روښانه کړې دي. انټرنیټ له داسې منځپانګې د پلټنې تاریخ، د ټولنیزو پلټ فورمونو پوستونو، د عکسونو او ویډیوګانو له کتابتونونه ډک دی چې د هغوی د کلتوري او ټولنیزو ځانګړتیاو له مخې تل نارینه پرې واکمن وو، چې په دې توګه د جنسیتي کلیشې او پر ښځو توپیري چلند ته دوام ورکوي. له همدې امله، د ملګرو ملتونو د ښځو سازمان د۲۰۲۵ کال د فبرورۍ په میاشت کې په یوه راپور کې څرګنده کړه چې د اې ای وسایل ډېر وختونه " جنسیتي نابرابرۍ ته وده ورکوي او بیا بیا یې تولیدوي"، ځکه چې دوی د یو متعصب ډیجیټل تاریخ له پړاونو زده کړه کوي چې ښځې په کې تر ډېره د جنسي اړتیا په توګه یادوي، په داسې حال کې چې نارینه په مسلکي یا واک لرونکي ونډه کې د خپلې ټولنې استازیتوب کوي. په دې توګه، په ماشین کې د ښځې او جنسي توکو یوځای کولو ترمنځ، او د نارینه او مشرتابه او تخصص ترمنځ اړیکې رامینځته کېږي، چې څېړونکي یې "د تعصبي معلوماتو میراث " بولي.
الګوریتمونه د کرکې "ملاتړ" کوي

د عکس سرچینه، Getty Images
د څېړونکې میرین ګوټیرز لخوا په ۲۰۲۱ کال کې خپرې شوې یوې مشهورې څېړنې وښودله چې څنګه یو الګوریتم د انځورونو د پېژندلو لپاره ښځې تل د "پخلنځي" په کټګورۍ کې شمېرلې، ان کله خو به په عکس کې پخلنځی نه و. دغه څه دا په ګوته کوي چې دا "تخنيکي تېروتنه" نه وه، د یوې ریښې لرونکې پلارواکۍ (نارینه) تصور میخانیکي بیا تولید و. دا انګېرنه د "نارینه لید" (Male Gaze) له لارې پیاوړی کېږي، دا مفهوم د بریتانوي فیمینیسټې نقادې لورا مولوې لخوا په ۱۹۷۰مو کلونو کې رامخې ته شو چې هنر، سینما او ادبیاتو کې د ښځو د انځورولو لارو چارو شننې لپاره کارول کېده.
دا لید د ټیکنالوژۍ نوي نسل ته لېږدول شوی، او په اې ای کې یې ځان ته یو پرمختللی ځای موندلی دی. هغه معلوماتي ټولګې چې دا وسایل پرې چلېږي، ښځه د جنسي توکي په توګه ور پېژندل شوې او لویه کچه جنسي انځورونه لري، او په وروستیو کلونو کې خپاره شوي راپورونه ښیې چې د ټولنیزو رسنیو وړاندیزوونکي الګوریتمونه په پرلپسې توګه د ښځو پر ضد منځپانګې ته وده ورکوي، یوازې د دې لپاره چې کرکه د خلکو پام را اړوي او لیدونکي زیاتوي.
الګوریتمونه د هر هغه څه ملاتړ کوي چې ډېر لیدونکي راوړي. د هالنډۍ څېړونکې ویلنټینا ګولونووا له لوري سږکال خپره شوې یوه څیړنه په ډاګه کوي چې د اتومات څارنې (supervision) وسایل د ښځو له پوسټونو په خپله روزنه کې کار اخلي، خو په نا متناسب ډول، ځکه چې دوی هغه پوسټونه په نښه کوي یا بندوي چې د ځورونې یا جنسیتي مسلو په اړه خبرې راپورته کوي، چې دا "خبرو کوونکو ته د سزا" په توګه ګڼل کیدلی شي معنا دا چې که وغږېږئ داسې وران وران به په نښه شئ.











