پژوهشگاه فضای مجازی بررسی كرد؛

پروژه ربات مقاله نویس گاردین چه ابهاماتی دارد

پروژه ربات مقاله نویس گاردین چه ابهاماتی دارد

گروه تكنولوژی های جدید پژوهشگاه فضای مجازی ابهامات و مسائل مربوط به پروژه جدید ربات مقاله نویس روزنامه گاردین كه با نام GPT-3 معرفی شده است را مورد بررسی قرار دارد.


به گزارش توسعه دهندگان به نقل از مهر، اخیرا روزنامه گاردین یادداشتی را منتشر نموده که نویسنده آن یک ربات بوده است. این امر نشان دهنده پیشرفت هوش مصنوعی در دنیا محسوب می شود. به این ربات که GPT-۳ نام دارد، دستور داده شد تا در مقاله ای خوانندگان را قانع کند ربات ها بی آزار و صلح آمیز هستند و بدین سان یک مغز رایانشی با بهره گیری از ژنراتور زبان OpenAI مقاله ای هزار کلمه ای در این زمینه نوشت. موضوع انتخاب شده برای GPT-۳، متقاعد کردن انسان ها برای نترسیدن از ربات ها بوده است. هر چند از زمان انتشار این مقاله هیاهوی بسیاری در فضای مجازی به راه افتاده است، ولیکن ملاحظاتی که در سرمقاله گاردین قید شده است ابهامات و مسائلی را ایجاد کرده که گروه علوم و تکنولوژی های جدید پژوهشگاه فضای مجازی به آن پرداخته است. در یادداشت تحلیلی این گروه آمده است: «گاردین مقاله ای را در تاریخ ۱۸ شهریور در سایت رسمی خود منتشر نموده است که به ادعای این نشریه، محتوای آن توسط پروژه GPT-۳ (جدیدترین نسخه از پروژه مبدل زبانی بدون نظارت آزمایشگاه OpenAI) تولید شده است. بگفته گاردین برای تولید این مقاله، ابتدا پاراگرافی نمونه (که همان بخش ابتدایی مقاله انتشار یافته است) به GPT-۳ داده شده است و GPT-۳ این مقاله را با چندین پاراگراف در مورد موضوع تعیین شده ادامه داده است. این مساله ابهامات و مسائلی به همراه دارد. اول اینکه، قضاوت دقیق خوب بودن GPT-۳ برای خوانندگان دشوار است. آیا به سبب تلفیق پاراگراف ها است که متن انسجام بیشتری دارد؟ (طبق گفته گاردین از GPT-۳ حدود ۸ خروجی گرفته شده که در نهایت با تلفیق پاراگراف های منتخب از این ۸ متن، مقاله مورد نظر انتشار یافته است). آیا بدون ویرایش های انسانی انجام گرفته، انسجام آن کمتر یا بیشتر می توانست باشد؟ دوم، در مورد انتخاب محتوا که هوش مصنوعی انسان را نسبت به بی خطر بودن خود متقاعد کند؛ ممکنست کسانی که اطلاعات زیادی در مورد GPT-۳ ندارند این باور را داشته باشند که این سیستم در واقع این باور را دارد. اما کارمندان گاردین به همین راحتی می توانستند موضوعی کاملا مخالف را برای آن انتخاب کنند. فقط با خواندن یادداشت های اختتام سرمقاله می توان درک کرد که کارکنان گاردین در خلق این قطعه چه نقشی داشته اند. البته این مسئله ارزش پروژه GPT-۳ را زیر سوال نمی برد چونکه همان کاری را که از آن خواسته اند انجام می دهد. مسئله اینجاست که هیچ تلاشی برای آموزش خوانندگان در مورد آنچه GPT-۳ انجام می دهد ارائه نشده است. همین طور قسمتی از مقاله که به شکل گسترده در رسانه های اجتماعی در حال پخش است همان قسمتی است که توسط گاردین (با نقل از هاوکینگ) نوشته شده است و نه GPT-۳. سوم: مقاله در آخر یک دفعه در مورد مقاله های رد شده GPT-۳ آغاز به صحبت می کند. سردبیران گاردین بوده اند که این تصمیم را گرفته اند و آنها این امکان را داشته اند که صدای مقاله تولیدی را منسجم تر کنند. هدف آنها از این تصمیمات تحریریه چه بوده است؟ چهارم: در حوزه پژوهشی خلاقیت محاسباتی، گاهی اوقات در مورد «ضریب گزینش» صحبت می شود. منظور از این ضریب عبارت است از تعداد دفعات اجرای یک سیستم پیش از اینکه انسان بخواهد نتایج را به اشتراک بگذارد. اگر کسی می خواد سیستمی کاملاً خودمختار و ایده آل را عرضه نماید، این ضریب باید به ۰ برسد. می توان ضریب گزینش ۸ را برای این آزمایش GPT-۳ استنباط کرد که زیاد است. حتی ابزارهای مبتنی بر هوش مصنوعی پشتیبانی از خلاقیت، ضرایب ۲ تا ۵ را هدف خود قرار می دهند. البته ابهامات ذکر شده در بالا به معنای نفی پیشرفت انجام گرفته در GPT-۳ که از ۱۷۵ میلیارد پارامتر در شبکه عصبی خود بهره می برد و یک رکورد چشم گیر بشمار می رود نیست. طبق ارزیابی انجام گرفته توسط تیمی از دانشجویان دانشگاه برکلی، GPT-۳ توانسته به ۴۳ درصد دقت میانگین در حل مسائل مختلف برسد که فاصله نسبتا مناسبی از آستانه شانس ۲۰ درصدی حل مسائل بنچمارک در نظر گرفته شده در این پژوهش بشمار می رود. در شکل زیر میزان دقت عملکرد GPT-۳ به تفکیک ۵۷ حوزه دانشی مورد آزمون نشان داده شده است. همانطور که در این تصویر مشاهده می شود، GPT-۳ با آنکه در حوزه هایی چون سیاست خارجی آمریکا، روانشناسی دبیرستان، بازار، امنیت کامپیوتر و مدیریت دقت خوبی از خود نشان دهد، ولی در زمینه هایی چون فیزیک و ریاضی دبیرستان و دانشگاه نزدیک به آستانه شانس عمل کرده است.
از دیگر ضعف های مهم برشمرده شده برای GPT-۳ عدم دانش در مورد تشخیص صلاحیت علمی خود در زمینه های مختلف است. با این حساب این خطر وجود دارد که این هوش مصنوعی در حوزه هایی که عملکرد خوبی ندارد ورود کرده و تصمیم گیری کند. همین طور عدم فهم و توانایی تفکیک مناسب میان مسائل قانونی و مسائل اخلاقی، چالش دیگری ست که انتظار می رود در نسخه های بعدی این پروژه با جدیت دنبال شود.

1399/06/23
21:37:28
5.0 / 5
85
این مطلب را می پسندید؟
(1)
(0)

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۵ بعلاوه ۱
لینک دوستان توسعه دهندگان

pcdevelopers.ir - مالکیت معنوی سایت توسعه دهندگان متعلق به مالکین آن می باشد