جهان امروز و هوش مصنوعی،

قوانین ایالات متحده آمریکا در هوش مصنوعی کدامند؟

قوانین ایالات متحده آمریکا در هوش مصنوعی کدامند؟

توسعه دهندگان: خراسان رضوی چت بات جی چی تی (ChatGPT)، یک محصول هوش مصنوعی است که در ماه نوامبر 2022 پا به عرصه زندگی بشر گذاشت، ظرفیت شگفت انگیزی برای نوشتن مقاله، شرکت در بحث های فلسفی و تولید کدهای کامپیوتری دارد اما این چت بات محبوب چه خطراتی به همراه دارد؟


با پیشرفت بیش از پیش هوش مصنوعی خیلی از افراد خطر را احساس کردند و خواهان وضع مقررات فوری دراین زمینه شدند. خیلی از کشورهای جهان درحال وضع قوانین مربوط به استفاده از هوش مصنوعی و یا در شرف انجام آن هستند و ایالات متحده آمریکا نیز مطالعه قوانین احتمالی برای تنظیم هوش مصنوعی را در دستور کار خود قرار داده و بتازگی کارهای مقدماتی و خاص ارائه شده است که سرنخ هایی درباره ی نحوه تفکر دولت فدرال ایالات متحده در مورد هوش مصنوعی و نحوه اداره آنرا در آینده می دهد.


موسسه ملی فناوری و استانداردها
در ۲۶ ژانویه ۲۰۲۳، موسسه ملی فناوری و استانداردها (NIST)، یکی از آژانس های وزارت تجاری ایالات متحده، چارچوب مدیریت ریسک هوش مصنوعی ۱.۰ (RMF) خودرا به عنوان راهنمایی داوطلبانه، غیربخشی برای شرکت های فناوریی منتشر نمود که درحال طراحی، توسعه، استقرار یا استفاده از سیستم های هوش مصنوعی هستند و هدف از آن کمک به مدیریت خطرات فراوان هوش مصنوعی خواهد بود؛ این قوانین فراتر از مدیریت ریسک، بدنبال ارتقاء توسعه و استفاده قابل اعتماد و مسئولانه از سیستم های هوش مصنوعی است.
به عنوان هماهنگ کننده استانداردهای هوش مصنوعی فدرال، موسسه ملی فناوری و استانداردها با رهبران دولت و صنعت هم در ایالات متحده و هم در سطح بین المللی برای توسعه استانداردهای فنی برای ترویج پذیرش هوش مصنوعی همکاری می کند و قوانینی را در بخش «استانداردهای فنی هوش مصنوعی» در وب سایت خود ذکر کرده است. علاوه بر این، بخش ۵۳۰۱ قانون مجوز دفاع ملی سال مالی ۲۰۲۱ به موسسه ملی فناوری و استانداردها فرمان داد تا یک چارچوب مدیریت ریسک داوطلبانه برای سیستم های هوش مصنوعی قابل اعتماد در قالب مدیریت ریسک هوش مصنوعی بوجود آورد. بااینکه چارچوب مدیریت ریسک هوش مصنوعی داوطلبانه است اما بینش خوبی در مورد ملاحظاتی ارائه می دهد که دولت فدرال احتمالاً برای مقررات آینده هوش مصنوعی در نظر می گیرد و همانطور که تکامل می یابد، در نهایت می تواند به عنوان یک استاندارد صنعتی پذیرفته شود که جنبه های کلیدی آن در ذیل خلاصه شده است.
تشخیص کلیدی توسط چارچوب مدیریت ریسک هوش مصنوعی این است که انسان ها بطور معمول سیستم های هوش مصنوعی را عینی و دارای عملکرد بالا فرض می کنند. این فرض می تواند بطور ناخواسته به افراد، جوامع، سازمان ها یا اکوسیستم های وسیع تر همچون محیط زیست لطمه برساند. افزایش قابلیت اطمینان به یک سیستم هوش مصنوعی می تواند به کاهش خطرات این لطمه کمک نماید. چارچوب مدیریت ریسک هوش مصنوعی قابلیت اعتماد را به عنوان داشتن هفت خاصیت تعریف شده بیان کرده است:
۱. ایمن بودن: ارائه نظارت در زمان واقعی، پشتیبان یا سایر مداخلات سیستم هوش مصنوعی برای جلوگیری از لطمه فیزیکی یا روانی، یا به خطر انداختن جان، سلامت یا دارایی انسان؛
۲. ایمن و انعطاف پذیر بودن: استفاده از پروتکل هایی برای جلوگیری، محافظت در مقابل یا پاسخ به حملات مقابل سیستم هوش مصنوعی و مقاومت در مقابل حوادث نامطلوب؛
۳. قابل توضیح و تفسیر بودن: درک و زمینه سازی مناسب مکانیسم های یک سیستم هوش مصنوعی همین طور خروجی آن؛
۴. افزایش حریم خصوصی: صیانت از استقلال انسان با صیانت از ناشناس بودن، محرمانه بودن و کنترل؛
۵. بی طرفانه بودن: ترویج برابری و مدیریت سوگیری های سیستمی، محاسباتی و آماری و انسانی-شناختی
۶. پاسخگویی و شفافیت: در دسترس قرار دادن اطلاعات مربوط به سیستم هوش مصنوعی برای افرادی که با آن در مراحل مختلف چرخه حیات هوش مصنوعی تعامل دارند و حفظ شیوه های سازمانی و حاکمیت برای کاهش لطمه های احتمالی و
۷. معتبر و قابل اعتماد بودن: نشان دادن بوسیله آزمایش یا نظارت مداوم برای تایید عملکرد سیستم هوش مصنوعی همانطور که در نظر گرفته شده است.


چارچوب مدیریت ریسک هوش مصنوعی همین طور اشاره کرد که سیستم های هوش مصنوعی در معرض خطرات منحصر به فردی مانند موارد ذکر شده در ذیل هستند:
• استفاده از داده های شخصی ممکنست شرکت های هوش مصنوعی را مشمول قوانین حفظ حریم خصوصی دولتی یا سایر خطرات حفظ حریم خصوصی به علت قابلیت های تجمیع داده های هوش مصنوعی کند.
• مجموعه داده های آموزشی ممکنست مشمول صیانت از حق نسخه برداری باشد.
• مسائل مربوط به کیفیت داده ها (از جمله داده های نادرست، ناقص یا مغرضانه) می تواند بر قابلیت اعتماد سیستم های هوش مصنوعی تاثیر بگذارد.
• در مورد روش ها و معیارهای اندازه گیری قوی و قابل تایید، اتفاق نظر وجود ندارد.
چارچوب مدیریت ریسک هوش مصنوعی چهار عملکرد کلیدی را برای هوش مصنوعی شرح می دهد که در طول چرخه عمر سیستم هوش مصنوعی برای مدیریت ریسک و تقسیم این عملکردهای اصلی به زیر مجموعه های بیشتر استفاده خواهد شد. پلی بوک همراه چارچوب مدیریت ریسک هوش مصنوعی موارد ذیل را برای مساعدت با شرکتها در اجرای این عملکردهای اصلی پیشنهاد می کند:
۱. طرح: جمع آوری دانش کافی در مورد سیستم هوش مصنوعی برای اطلاع رسانی تصمیمات سازمانی در طراحی، توسعه یا استقرار آن؛
۲. اندازه گیری: اجرای فرآیندهای آزمایش، ارزیابی، راستی آزمایی و اعتبارسنجی برای اطلاع از تصمیمات مدیریت؛
۳. نظارت: ایجاد فرهنگ سازمانی که مدیریت ریسک هوش مصنوعی را در سیاست ها و عملیات خود گنجانده، آنها را بطور موثر اجرا همین طور مسئولیت پذیری و تنوع، برابری و شمول را تشویق کند و
۴. مدیریت: اولویت بندی و نظارت خطرات سیستم هوش مصنوعی و واکنش به حوادث خطر و بازیابی آنها در نظر گرفته شود.


کمیسیون تجارت فدرال
علاوه بر انتشار چارچوب مدیریت ریسک هوش مصنوعی توسط موسسه ملی فناوری و استانداردها، تعدادی از راهنمایی های اخیر از طرف سایر نهادها در داخل دولت فدرال نیز به وجود آمده است. به عنوان مثال، کمیسیون تجارت فدرال پیشنهاد کرده که ممکنست به زودی نظارت خودرا بر مشاغلی که از هوش مصنوعی استفاده می نمایند افزایش دهد. قابل ذکر است، بتازگی کمیسیون تجارت فدرال پست های وبلاگی مختلفی همچون «ادعاهای هوش مصنوعی خودرا کنترل کنید» و «چت ربات ها، دیپ فیک ها و کلون های صوتی؛ فریب هوش مصنوعی برای فروش» را منتشر نموده که به کسب وکارها هشدار داده است تا از اقدامات ناعادلانه یا گمراه کننده اجتناب کنند.


سازمان غذا و دارو
برای شرکت هایی که مشتاق استفاده از فناوری های هوش مصنوعی برای تصمیم گیری در رابطه با مراقبت های بهداشتی هستند، سازمان غذا و دارو (FDA) اعلام نموده است که می خواهد خیلی از ابزارهای پشتیبانی تصمیم گیری بالینی مبتنی بر هوش مصنوعی را به عنوان دستگاه تنظیم کند.
در صورتیکه اقدامات اخیر با جزییات زیاد توسط موسسه ملی فناوری و استانداردها، کمیسیون تجارت فدرال، و سازمان غذا و دارو منتشرشده است موارد اندکی از مقررات آینده هوش مصنوعی ایالات متحده را ارائه می دهد، شکی نیست که هم اکنون، قوانین سخت و سریع کمی وجود دارد که شرکت های هوش مصنوعی ایالات متحده می توانند برمبنای آن فعالیت کنند. به نظر می آید، اجتناب ناپذیر است که باید مقررات به صورتی در نهایت ظاهر شود اما این که چه زمانی رخ خواهد داد، هر کسی حدس می زند.
منابع

www.euronews.com

www.reuters.com

www.openaccessgovernment.org



1402/04/01
19:59:41
5.0 / 5
378
تگهای خبر: آمریكا , آموزش , استاندارد , توسعه
این مطلب را می پسندید؟
(1)
(0)

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۳ بعلاوه ۳

pcdevelopers.ir - مالکیت معنوی سایت توسعه دهندگان متعلق به مالکین آن می باشد