جهان امروز و هوش مصنوعی،
قوانین ایالات متحده آمریکا در هوش مصنوعی کدامند؟
بست روید: خراسان رضوی چت بات جی چی تی (ChatGPT)، یک محصول هوش مصنوعی است که در ماه نوامبر 2022 پا به عرصه زندگی بشر گذاشت، ظرفیت شگفت انگیزی برای نوشتن مقاله، شرکت در بحث های فلسفی و تولید کدهای کامپیوتری دارد اما این چت بات محبوب چه خطراتی به همراه دارد؟
با پیشرفت روز افزون هوش مصنوعی خیلی از افراد خطر را احساس کردند و خواهان وضع مقررات فوری در این حوزه شدند. خیلی از کشورهای جهان درحال وضع قوانین در ارتباط با استفاده از هوش مصنوعی و یا در شرف انجام آن هستند و ایالات متحده آمریکا نیز مطالعه قوانین احتمالی برای تنظیم هوش مصنوعی را در دستور کار خود قرار داده و اخیرا فعالیتهای مقدماتی و خاص ارائه شده است که سرنخ هایی درباره ی نحوه تفکر دولت فدرال ایالات متحده در مورد هوش مصنوعی و نحوه اداره آنرا در آینده می دهد.
موسسه ملی فناوری و استانداردها
در ۲۶ ژانویه ۲۰۲۳، موسسه ملی فناوری و استانداردها (NIST)، یکی از آژانس های وزارت بازرگانی ایالات متحده، چارچوب مدیریت ریسک هوش مصنوعی ۱.۰ (RMF) خودرا بعنوان راهنمایی داوطلبانه، غیربخشی برای شرکتهای فناوریی منتشر نمود که درحال طراحی، توسعه، استقرار یا استفاده از سیستم های هوش مصنوعی هستند و هدف از آن کمک به مدیریت خطرات فراوان هوش مصنوعی خواهد بود؛ این قوانین فراتر از مدیریت ریسک، به دنبال ارتقاء توسعه و استفاده قابل اعتماد و مسئولانه از سیستم های هوش مصنوعی است.
بعنوان هماهنگ کننده استانداردهای هوش مصنوعی فدرال، موسسه ملی فناوری و استانداردها با رهبران دولت و صنعت هم در ایالات متحده و هم در سطح بین المللی برای توسعه استانداردهای فنی برای ترویج پذیرش هوش مصنوعی همکاری می کند و قوانینی را در بخش «استانداردهای فنی هوش مصنوعی» در وب سایت خود ذکر کرده است. علاوه بر این، بخش ۵۳۰۱ قانون مجوز دفاع ملی سال مالی ۲۰۲۱ به موسسه ملی فناوری و استانداردها دستور داد تا یک چارچوب مدیریت ریسک داوطلبانه برای سیستم های هوش مصنوعی قابل اعتماد در قالب مدیریت ریسک هوش مصنوعی ایجاد نماید. بااینکه چارچوب مدیریت ریسک هوش مصنوعی داوطلبانه است اما بینش خوبی در مورد ملاحظاتی ارائه می دهد که دولت فدرال احیانا برای مقررات آینده هوش مصنوعی در نظر می گیرد و همانطور که تکامل می یابد، در نهایت می تواند بعنوان یک استاندارد صنعتی پذیرفته شود که جنبه های کلیدی آن در ذیل خلاصه شده است.
تشخیص کلیدی توسط چارچوب مدیریت ریسک هوش مصنوعی اینست که انسان ها بطور معمول سیستم های هوش مصنوعی را عینی و دارای عملکرد بالا فرض می کنند. این فرض می تواند بطور ناخواسته به افراد، جوامع، سازمان ها یا اکوسیستم های وسیع تر همچون محیط زیست لطمه برساند. افزایش قابلیت اطمینان به یک سیستم هوش مصنوعی می تواند به کاهش خطرات این لطمه کمک نماید. چارچوب مدیریت ریسک هوش مصنوعی قابلیت اعتماد را بعنوان داشتن هفت خاصیت تعریف شده بیان کرده است:
۱. ایمن بودن: ارائه نظارت در زمان واقعی، پشتیبان یا سایر مداخلات سیستم هوش مصنوعی برای پیشگیری از لطمه فیزیکی یا روانی، یا به خطر انداختن جان، سلامت یا دارایی انسان؛
۲. ایمن و انعطاف پذیر بودن: استفاده از پروتکل هایی برای جلوگیری، محافظت در مقابل یا پاسخ به حملات مقابل سیستم هوش مصنوعی و مقاومت در مقابل حوادث نامطلوب؛
۳. قابل توضیح و تفسیر بودن: درک و زمینه سازی مناسب مکانیسم های یک سیستم هوش مصنوعی همین طور خروجی آن؛
۴. افزایش حریم خصوصی: محافظت از استقلال انسان با حفاظت از ناشناس بودن، محرمانه بودن و کنترل؛
۵. بی طرفانه بودن: ترویج برابری و مدیریت سوگیری های سیستمی، محاسباتی و آماری و انسانی-شناختی
۶. پاسخگویی و شفافیت: در دسترس قرار دادن اطلاعات در ارتباط با سیستم هوش مصنوعی برای افرادی که با آن در مراحل مختلف چرخه حیات هوش مصنوعی تعامل دارند و حفظ شیوه های سازمانی و حاکمیت برای کاهش لطمه های احتمالی و
۷. معتبر و قابل اعتماد بودن: نشان دادن از راه آزمایش یا نظارت مداوم برای تایید عملکرد سیستم هوش مصنوعی همانطور که در نظر گرفته شده است.
چارچوب مدیریت ریسک هوش مصنوعی همین طور تصریح کرد که سیستم های هوش مصنوعی در معرض خطرات منحصر به فردی مانند موارد ذکر شده در ذیل هستند:
• استفاده از داده های شخصی امکان دارد شرکتهای هوش مصنوعی را مشمول قوانین حفظ حریم خصوصی دولتی یا سایر خطرات حفظ حریم خصوصی به علت قابلیت های تجمیع داده های هوش مصنوعی کند.
• مجموعه داده های آموزشی امکان دارد مشمول محافظت از حق نسخه برداری باشد.
• مسائل در ارتباط با کیفیت داده ها (از جمله داده های نادرست، ناقص یا مغرضانه) می تواند بر قابلیت اعتماد سیستم های هوش مصنوعی تاثیر بگذارد.
• در مورد روش ها و معیارهای اندازه گیری قوی و قابل تایید، اتفاق نظر وجود ندارد.
چارچوب مدیریت ریسک هوش مصنوعی چهار عملکرد کلیدی را برای هوش مصنوعی شرح می دهد که در طول چرخه عمر سیستم هوش مصنوعی برای مدیریت ریسک و تقسیم این عملکردهای اصلی به زیر مجموعه های بیشتر استفاده خواهد شد. پلی بوک همراه چارچوب مدیریت ریسک هوش مصنوعی موارد ذیل را جهت کمک به شرکتها در اجرای این عملکردهای اصلی پیشنهاد می کند:
۱. طرح: جمع آوری دانش کافی در مورد سیستم هوش مصنوعی برای اطلاع رسانی تصمیمات سازمانی در طراحی، توسعه یا استقرار آن؛
۲. اندازه گیری: اجرای فرآیندهای آزمایش، ارزیابی، راستی آزمایی و اعتبارسنجی برای اطلاع از تصمیمات مدیریت؛
۳. نظارت: ایجاد فرهنگ سازمانی که مدیریت ریسک هوش مصنوعی را در سیاست ها و عملیات خود گنجانده، آنها را بطور موثر اجرا همین طور مسئولیت پذیری و تنوع، برابری و شمول را تشویق کند و
۴. مدیریت: اولویت بندی و نظارت خطرات سیستم هوش مصنوعی و واکنش به حوادث خطر و بازیابی آنها در نظر گرفته شود.
کمیسیون تجارت فدرال
علاوه بر انتشار چارچوب مدیریت ریسک هوش مصنوعی توسط موسسه ملی فناوری و استانداردها، بعضی از راهنمایی های اخیر از طرف سایر نهادها در داخل دولت فدرال نیز بوجود آمده است. بعنوان مثال، کمیسیون تجارت فدرال پیشنهاد کرده که امکان دارد بزودی نظارت خودرا بر مشاغلی که از هوش مصنوعی استفاده می نمایند افزایش دهد. قابل ذکر است، اخیرا کمیسیون تجارت فدرال پست های وبلاگی مختلفی همچون «ادعاهای هوش مصنوعی خودرا کنترل کنید» و «چت ربات ها، دیپ فیک ها و کلون های صوتی؛ فریب هوش مصنوعی برای فروش» را منتشر نموده که به کسب و کارها هشدار داده است تا از اقدامات ناعادلانه یا گمراه کننده اجتناب کنند.
سازمان غذا و دارو
برای شرکت هایی که علاقمند به استفاده از فناوری های هوش مصنوعی برای تصمیم گیری در رابطه با مراقبت های بهداشتی هستند، سازمان غذا و دارو (FDA) اعلام نموده است که می خواهد خیلی از ابزارهای پشتیبانی تصمیم گیری بالینی مبتنی بر هوش مصنوعی را بعنوان دستگاه تنظیم کند.
در حالیکه اقدامات اخیر با جزییات زیاد توسط موسسه ملی فناوری و استانداردها، کمیسیون تجارت فدرال، و سازمان غذا و دارو منتشرشده است موارد اندکی از مقررات آینده هوش مصنوعی ایالات متحده را ارائه می دهد، شکی نیست که هم اکنون، قوانین سخت و سریع کمی وجود دارد که شرکتهای هوش مصنوعی ایالات متحده می توانند بر مبنای آن فعالیت کنند. به نظر می آید، اجتناب ناپذیر است که باید مقررات به شکلی در نهایت ظاهر شود اما این که چه زمانی رخ خواهد داد، هر کسی حدس می زند.
منابع
www.euronews.com
www.reuters.com
www.openaccessgovernment.org
این مطلب بست روید چطور بود؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات کاربران در مورد این مطلب بست روید
لطفا شما هم در مورد این مطلب نظر دهید