از آمریکا تا ژاپن، شیوه برخورد دولت‌ها با هوش مصنوعی

از ژاپن گرفته تا انگلیس، کشورهای مختلف دنیا در حال تنظیم قوانینی برای هوش مصنوعی هستند تا بدین ترتیب خود را برای مواجهه با خطرات و ریسک‌های دنیایی تازه آماده کرده و بدین ترتیب بهترین بهره را از فرصت‌های اقتصادی هوش مصنوعی ببرند.

غزال زیاری: این روزها در سراسر دنیا هیجان زیادی درباره بهره‌گیری از توانایی‌های هوش مصنوعی مولد در راستای تولید محتوا وجود دارد؛ از استفاده از بازاریابی گرفته تا ترجمه صدای پادکست‌ها به زبان‌های مختلف.

در کنار این وعده‌های بزرگ و جذاب و در غیاب محدودیتی خاص برای هوش مصنوعی، نگرانی‌های عظیمی نیز درمورد نحوه بهره‌گیری از هوش مصنوعی در کارهای مختلف وجود دارد؛ از جمله درباره گسترش اطلاعات نادرست در مقیاس‌های بزرگ و استفاده از آثار سازندگان بدون ذکر منبع و از دست رفتن گسترده مشاغل.

با در نظر داشتن تمام این ریسک‌ها و مخاطرات، دولت‌های سراسر دنیا در تلاشند تا قوانینی را برای بهره‌گیری از هوش مصنوعی اعمال کنند تا در کنار حمایت از علم روز و نوآوری، ایمنی و استفاده عادلانه از هوش مصنوعی نیز در کشورشان لحاظ شود. در این مقاله قصد داریم به تلاش‌های کشورهای مختلف در این مسیر بپردازیم:

آمریکا

دولت آمریکا تا به امروز به شرکت‌های فناوری اجازه داده تا هریک به شیوه خودشان از هوش مصنوعی بهره ببرند ولی قانونگذاران معتقدند که اعمال مقررات برای هوش مصنوعی ضروری است. در سال ۲۰۲۳ آنها جلسات متعددی را با شرکت‌های پیشرو در زمینه هوش‌مصنوعی، از OpenAI گرفته تا Nvidia برگزار کردند.

بیشتر بخوانید:

قانونگذاران مباحثی را درباره الزامات صدور مجوز و گواهینامه مدل‌های هوش مصنوعی پرخطر در صورت لزوم مطرح کرده‌اند. در عین حال، آژانس‌های فدرال، از جمله اداره حمایت مالی از مصرف کنندگان، وزارت دادگستری و کمیسیون فرصت‌های شغلی برابر و کمیسیون تجارت فدرال اعلام کرده‌اند که در حال حاضر بسیاری از برنامه‌های کاربردی هوش مصنوعی، مشمول قوانینی این چنینی هستند.

بریتانیا

بریتانیا که محل استقرار شرکت‌های هوش مصنوعی متعددی از جمله DeepMind (آزمایشگاه هوش مصنوعی گوگل) و شرکت سازنده ویدیوهای هوش مصنوعی Synthesia است، قصد دارد تا از وضع قوانین سنگینی که باعث خفه شدن نوآوری‌ها می‌شود، اجتناب کند. رویترز دراین باره گزارش کرده که مقررات هوش مصنوعی در این کشور، براساس اصولی مثل ایمنی، شفافیت، انصاف و مسئولیت‌پذیری خواهد بود.

دولت بریتانیا در عین حال قصد دارد تا نقشی کلیدی را در وضع قوانین هوش مصنوعی ایفا کند. اولین نشست در زمینه ایمنی هوش مصنوعی در این کشور در اوایل ماه نوامبر برگزار شد. ریشی سوناک، نخست وزیر بریتانیا دراین رابطه گفته:« بریتانیا مدت‌هاست که خانه فناوری‌های متحول کننده آینده بوده است و برای بهره‌گیری کامل از فرصت‌های خیره‌کننده هوش مصنوعی، باید با خطرات پیش‌رو مقابله کرده و اطمینان حاصل کرد که هوش مصنوعی در سال‌های آتی به شکلی ایمن توسعه خواهد یافت

uk.jpg

بریتانیا قصد دارد تا به جای ایجاد و اختصاص یک ارگان جدید به مبحث هوش مصنوعی، مسئولیت مدیریت هوش مصنوعی را بین ارگان‌های فعال در زمینه حقوق بشر، سلامت و ایمنی و رقابت تقسیم کند. این شیوه متفاوتی در مقایسه با قانونگذاران آمریکاست که به تاسیس ارگانی مستقل می‌اندیشند تا بدین‌ترتیب به نظارت بر صدور مجوز به مدل‌های هوش مصنوعی پرخطر بپردازند. شخصیت‌های آکادمیک از منتقدان تاسیس یک ارگان مستقل هستند و بر این باورند که ایجاد یک ارگان کاملا جدید، به زمان زیادی نیاز خواهد داشت.

اتحادیه اروپا

از سال ۲۰۲۱، اتحادیه اروپا که سابقه اجرای مقررات سختگیرانه‌تری در صنعت تکنولوژی در مقایسه با سایر مناطق دنیا را داراست، بر روی تصویب قانون هوش مصنوعی که اولین قانون هوش مصنوعی در دنیای غرب است، کار می‌کند.

این قانون به طبقه‌بندی سیستم‌های هوش مصنوعی براساس ریسک آنها می‌پردازد. سیستم‌های پرخطر، از جمله ابزارهای استخدام هوش مصنوعی و یا نرم‌افزارهای نمره‌دهی امتحانات، در مقایسه با سیستم‌هایی با ریسک پائین‌تر ، با استانداردهای بیشتری از جمله اعتبار سنجی داده‌ها و مستندسازی مواجه خواهند شد.

قوانین پیشنهادی استفاده مزاحم و تبعیض‌آمیز از هوش مصنوعی در امور مختلف، مثل سیستم‌های شناسایی بیومتریک از راه دور در زمان واقعی و در فضاهای قابل دسترس عموم و یا سیستم‌های خط مشی پیش‌بینی براساس پروفایل را ممنوع می‌کند.

ue.jpg

اخیرا تیری برتون، عضو کمیسیون اروپا به این نکته اشاره کرد که اتحادیه اروپا در حال توسعه یک پیمان هوش مصنوعی است که به شرکت‌ها کمک خواهد کرد تا برای اجرای قوانین هوش مصنوعی آماده شوند و نه فقط تکنولوژی‌های بزرگ، بلکه استارت‌آپ‌ها نیز باید در بحث‌های مربوط به توسعه حکمرانی هوش مصنوعی مدنظر قرار گیرند.

در گذشته مقامات استارت‌آپ‌ها اعلام کرده بودند که قوانین پیشنهادی اتحادیه اروپا، به شدت محدود کننده است.

چین

در چین، ارائه‌دهندگان هوش مصنوعی مولد باید ارزیابی امنیتی شوند و ابزارهای هوش مصنوعی باید به ارزش‌های سوسیالیستی این کشور پایبند باشند. اما تکنولوژی هوش مصنوعی مولد که برای استفاده در خارج از چین توسعه یافته‌اند، شامل این قوانین نمی‌شوند. مراکز تحقیق و توسعه شرکت‌های فناوری چینی از جمله Baidu، Tencent و هواووی در منطقه سیلیکون ولی آمریکا به فعالیت می‌پردازند.

china.jpg

بزرگترین شرکت‌های اینترنتی چینی از جمله علی بابا، Baidu و JD، که به رقابت با چت جی پی تی، محصول کمپانی OpenAI می‌پردازند، اخیرا چت‌بات‌های هوش مصنوعی خودشان را معرفی کرده‌اند. در گذشته چین اعلام کرده بود که می‌خواهد تا سال ۲۰۳۰ رهبر جهانی هوش مصنوعی باشد و برنامه‌هایی نیز برای تجاری‌سازی هوش مصنوعی در حوزه‌های مختلف، از شهرهای هوشمند گرفته تا کاربردهای نظامی ارائه کرده است.

ژاپن

به نظر می‌رسد که ژاپنی‌ها قوانین نرم‌تری را در راستای استفاده از هوش مصنوعی در نظر دارند. اخیرا فومیو کیشیدا، نخست وزیر ژاپن اعلام کرد که در بسته اقتصادی بعدی، بودجه‌ای برای توسعه هوش مصنوعی در شرکت‌های کوچک و متوسط درنظر گرفته شده که این می‌تواند به جاماندگی ژاپن در فناوری کمک کند.

ژاپنی ها در عین حال اعلام کرده‌اند که استفاده از تصاویر دارای کپی رایت برای آموزش مدل‌های هوش مصنوعی، قوانین کپی رایت را نقض نمی‌کند. این بدان معناست که ارائه دهندگان هوش مصنوعی مولد می‌توانند بدون کسب مجوز از صاحبان تصویر، از آثار دارای کپی رایت بهره ببرند.

jaapan.jpg

یکی از اعضای مجلس نمایندگان ژاپن که عضو حزب دموکراتیک قانون اساسی این کشور است در این رابطه گفته:« در ژاپن، آثار برای تجزیه و تحلیل اطلاعات می‌توانند صرف‌نظر از روش، چه برای اهداف غیرانتفاعی، چه برای سود و چه برای هر فعالیت دیگری غیر از تولیدمثل و یا برای محتوای به دست آمده از سایت‌های غیرقانونی مورد استفاده قرار گیرند.»

او در عین حال به این نکته اشاره کرد که استفاده از تصاویر بر خلاف میل صاحب کپی‌رایت، از نظر حمایت از حقوق، مشکل‌ساز خواهد بود و اعلام کرد که به قوانین و مقررات جدیدی برای حمایت از دارندگان حق کپی رایت نیاز است.

برزیل

قانونگذاران در برزیل، تهیه پیش‌نویسی برای استفاده از هوش مصنوعی را آغاز کرده‌اند. این پیش‌نویس شامل الزام ارائه‌دهندگان سیستم‌های هوش مصنوعی به ارائه ارزیابی ریسک قبل از عرضه محصول‌شان به عموم جامعه است.

قانونگذاران، صرف‌نظر از طبقه‌بندی ریسک سیستم‌های هوش مصنوعی اعلام کردند که مردمی که توسط این سیستم‌ها به هر نحوی آسیب دیده‌اند، این حق قانونی را دارند که تا ۱۵ روز بعد از ارائه درخواستشان، توضیحاتی در مورد این تصمیم یا توصیه دریافت کنند. متخصصان آکادمیک معتقدند که توضیح اینکه چرا یک سیستم هوش مصنوعی، یک کار مشخص را انجام داده، اقدام سختی خواهد بود.

ai.jpg

ایتالیا

در ماه مارس سال ۲۰۲۳، ایتالیا اولین کشور غربی بود که به صورت موقت، ChatGPT را به دلیل جمع‌آوری غیرقانونی داده‌ها، ممنوع اعلام کرد. از آن زمان و طبق اعلام دولت ایتالیا، آنها ۳۰ میلیون یورو را برای کمک به افراد بیکار و کارگرانی که در ریسک از دست دادن شغلشان هستند اختصاص داده‌اند تا به تقویت مهارت‌های دیجیتالی خود بپردازند.

بیشتر بخوانید:

منبع: qz

۵۸۵۸