گزارشهای جدید نشان داد؛

شرکتهای فناوری در ردیابی ایموجی های نژاد پرستانه شکست خوردند

شرکتهای فناوری در ردیابی ایموجی های نژاد پرستانه شکست خوردند

گزارشی جدید نشان داده است الگوریتم هایی که شرکتهای فناوری برای شناسایی محتوای نژاد پرستانه توسعه داده اند قادر به ردیابی پست های توهین آمیز حاوی ایموجی نیستند.


به گزارش توسعه دهندگان به نقل از تلگراف، تحقیقی در دانشگاه آکسفورد نشان داده است شرکتهای فناوری به علت وجود ایموجی ها نمی توانند برخی پست های محتوای نژاد پرستانه را شناسایی کنند. به قول کارشناسان الگوریتم هایی که گوگل توسعه داده در شناسایی و مسدود کردن محتوای نژاد پرستانه همراه با ایموجی فقط ۱۴ درصد کارآمد است. ایموجی ها می توانند نرم افزار را فریب دهند که محتوای مذکور اهانت آمیز نیست. محققان انستیتو «اینترنت آکسفورد» در پژوهش خود متوجه شدند فناوری که برای مسدود کردن پست های توهین آمیز یا حاوی نفرت در فضای آنلاین توسعه یافته، بیشتر اوقات نمی تواند پیام هایی که حاوی ایموجی هستند را شناسایی کند. ایموجی های معمولی مانند سمبل های میمون، موز و هندوانه بیشتر با محتوای نفرت پراکنی نژاد پرستانه همراه هستند. بعد از شکست تیم فوتبال انگلیس از ایتالیا در فینال مسابقات اروپا، ۳ بازیکن سیاهپوست تیم انگلیس با انبوهی از محتوای نژاد پرستانه همچون ایموجی ها روبرو شدند. محققان آکسفورد متوجه شدند فناوری های فعلی بازنگری محتوا به صورت مداوم اشتباه می کنند و ایموجی ها را توهین آمیز نمی دانند. چونکه نرم افزار هوش مصنوعی به کار گرفته شده برای الگوریتم های مذکور برای شناسایی چنین ایموجی هایی برنامه ریزی نشده است. در ماه جولای آدام موسری مدیر اینستاگرام اعتراف کرد این اپ در ردیابی کامنت های توهین آمیزی که برای بازیکنان فوتبال ارسال شده، شکست خورده است. از طرفی هفته گذشته توئیتر اعلام نمود ۱۶۲۲ پست توهین آمیز که طی فینال مسابقات فوتبال اروپا ارسال شده بوده را حذف کرده است.


منبع:

1400/05/25
13:49:35
5.0 / 5
1023
تگهای خبر: آنلاین , اینترنت , برنامه , توسعه
این مطلب را می پسندید؟
(1)
(0)

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۵ بعلاوه ۳

pcdevelopers.ir - مالکیت معنوی سایت توسعه دهندگان متعلق به مالکین آن می باشد