سلبریتی‌های تقلبی!

متا روز چهارشنبه از ورود ربات‌های چت با شخصیت‌هایی مشابه افراد مشهور و امکان چت با آنها خبر داد. این جدیدترین پیشرفت فناوری که به عنوان یک تکامل سرگرم کننده ChatGPT و سایر اشکال هوش مصنوعی ارائه می‌شود، می‌تواند خطرناک باشد!

مهسا منصوری: متا که قبلاً فیسبوک نام داشت، این قابلیت جدید را به عنوان هوش مصنوعی «سرگرم کننده» می‌بیند. با این حال، برخی افراد دیگر احساس می‌کنند که آخرین پیشرفت فناوری می‌تواند اولین گام به سمت ایجاد «خطرناک‌ترین مصنوعات در تاریخ بشر» باشد، که یک فیلسوف آمریکایی به آن لغب «افراد تقلبی» داده است.

روز چهارشنبه ۲۷ سپتامبر، غول شبکه اجتماعی از راه اندازی ۲۸ چت بات خبر داد که ظاهراً شخصیت خاص خود را دارند و به طور ویژه برای کاربران جوان طراحی شده‌اند. این لیست شامل افرادی از جمله ویکتور، به اصطلاح ورزشکار سه‌گانه است که می‌تواند به شما انگیزه دهد تا «بهترین خود باشید» و سالی، «دوست آزاده‌ای که به شما می‌گوید چه زمانی نفس عمیق بکشید» است. کاربران اینترنت همچنین می‌توانند با مکس، یک «آشپز با تجربه» که «نکات و ترفندهای آشپزی» را می‌گوید، چت کنند، یا با لوئیز که «می‌تواند از صحبت‌های خود پشتیبانی کند»، وارد یک بحث کلامی شوید.

اختراع ترسناک متا/ هوش مصنوعی عامل خودکشی یک کاربر شد!

متا برای تقویت این ایده که چت بات‌ها دارای شخصیت هستند و صرفاً ترکیبی از الگوریتم‌ها نیستند، به هر یک از آنها چهره‌ای داده است. به لطف همکاری با افراد مشهور، این ربات‌ها شبیه جت ستتر آمریکایی و پاریس هیلتون، چارلی داملیو، ستاره TikTok و نائومی اوزاکا، تنیسور آمریکایی-ژاپنی هستند.

این تمام ماجرا نیست

متا حساب‌های فیس‌بوک و اینستاگرام را برای هر یک از نمایندگان مکالمه خود باز کرده است تا به آن‌ها در خارج از رابط‌های چت دسترسی داشته باشد و در تلاش است که تا سال آینده به آنها قابلیت صدا نیز بدهد. شرکت مارک زاکربرگ همچنین به دنبال فیلمنامه نویسانی بود که بتوانند «شخصیت و سایر محتوای روایی پشتیبانی را بنویسند که برای مخاطبان جذاب باشد».

همه این تلاش‌ها، یک پروژه جاه‌طلبانه برای ساختن هوش‌ مصنوعی‌هایی که تا حد امکان شبیه به انسان هستند را نشان می‌دهد.

اختراع ترسناک متا/ هوش مصنوعی عامل خودکشی یک کاربر شد!

این رقابت برای بوجود آوردن «افراد تقلبی» بسیاری از ناظران که قبلاً نگران پیشرفت‌های اخیر در تحقیقات مدل زبان (LLM) مانند ChatGPT و Llama ۲ و همتای فیسبوک آن هستند، را نگران می‌کند. ون دو پول، یک استاد اخلاق و فناوری می‌گوید، بدون اینکه بخواهیم به اندازه برخی از افراد زیاده‌روی کنیم و خواستار زندانی شدن زاکربرگ باشیم، تعدادی از متفکران هستند که رویکرد عمدا فریبنده این گروه‌های بزرگ را محکوم می‌کنند.

هوش مصنوعی با شخصیت «به معنای واقعی کلمه غیرممکن» است

به گفته این فرد، ایده مکالمه با یک شخصیت به معنای واقعی کلمه غیرممکن است. الگوریتم‌ها قادر به نشان دادن «نیت در اعمال خود» یا «اراده آزاد» نیستند، دو ویژگی که ارتباط نزدیکی با ایده یک شخصیت دارند. متا و دیگران در بهترین حالت می توانند از ویژگی های خاصی که شخصیت را می‌سازند تقلید کنند. به‌عنوان مثال، باید از نظر فناوری امکان‌پذیر باشد که مثلاً به یک ربات چت بیاموزیم تا مانند شخصی که کاربر آن است عمل کند. به عنوان مثال، AI Amber متا، که قرار است شبیه هیلتون باشد، ممکن است بتواند به همان شیوه‌ای صحبت کند که نفس انسانی‌اش می‌تواند.

گام بعدی آموزش این LLMها برای بیان نظرات مشابه با شخصی‌ است که شبیه آنها ساخته شده‌اند. این یک رفتار بسیار پیچیده‌تر برای برنامه‌ریزی است، زیرا شامل ایجاد نوعی تصویر ذهنی دقیق از همه نظرات یک فرد است. همچنین این خطر وجود دارد که ربات‌های چت از کار بیفتند. بر اساس گزارش وال استریت ژورنال که توانست به اسناد داخلی شرکت مراجعه کند، یکی از این چت بات‌ها که متا آزمایش کرد، نظرات «زن ستیزانه» را بیان کرد. دیگری مرتکب گناهی کبیره شد و از زاکربرگ انتقاد و از TikTok تمجید کرد.

برای ساخت این ربات‌های گفتگو، متا توضیح می‌دهد که قصد دارد «داستان‌های شخصی منحصربه‌فرد» را به آنها ارائه دهد. به عبارت دیگر، سازندگان این هوش مصنوعی برای آنها بیوگرافی نوشته‌اند به این امید که بتوانند شخصیتی بر اساس آنچه در مورد خود خوانده‌اند ایجاد کنند. آنا استراسر، فیلسوف آلمانی که در پروژه‌ای برای ایجاد یک مدل زبانی بزرگ با قابلیت فلسفه ورزی درگیر بود، گفت:«رویکرد جالبی است، اما اضافه کردن روانشناسان به این تیم‌ها برای درک بهتر ویژگی‌های شخصیتی نیز مفید می‌شد».

جدیدترین پروژه هوش مصنوعی متا به وضوح ناشی از عطش سود است. استراسر می‌گوید: «بی‌تردید مردم برای اینکه بتوانند با پاریس هیلتون یا افراد مشهور دیگری صحبت کنند و رابطه مستقیم داشته باشند، آماده پرداخت هزینه خواهند بود.»

به گفته ون دو پول، هرچه کاربران بیشتر احساس کنند که با یک انسان صحبت می‌کنند، هرچه احساس راحتی بیشتری داشته باشند، مدت بیشتری می‌مانند و احتمال بازگشت دوباره آنها بیشتر می‌شود و در دنیای رسانه‌های اجتماعی، زمان صرف شده در فیس بوک و تبلیغات آن معادل با پول است.

اختراع ترسناک متا/ هوش مصنوعی عامل خودکشی یک کاربر شد!

رایانه، موجود زنده یا چیزی بین این دو؟

مطمئناً تعجب‌آور نیست که اولین حمله متا به هوش مصنوعی دارای شخصیت، چت ربات‌هایی هستند که عمدتاً نوجوانان را هدف قرار می‌دهند. با این حال، کارشناسان احساس می‌کنند که متا با تاکید بر «ویژگی های انسانی» هوش مصنوعی بازی خطرناکی را، راه انداخته است. ون دو پول گفت:«من واقعاً ترجیح می‌دادم این گروه به جای اینکه سعی کنند آنها را انسانی‌تر جلوه دهند تلاش بیشتری برای توضیح محدودیت‌های این چت‌بات‌ها می‌کردند».

ظهور این LLM های قدرتمند باعث ناراحتی شده است؛ این ChatGPT ها نوع سومی از عامل ها هستند، دوگانگی بین اینکه آیا رایانه است یا موجود زنده و انسان‌ها هنوز در حال یادگیری نحوه تعامل با این موجودات عجیب و غریب هستند. بنابراین، با ایجاد این باور در مردم که یک چت بات می‌تواند شخصیتی داشته باشد، متا پیشنهاد می‌کند که با او بیشتر شبیه یک انسان دیگر رفتار شود تا یک رایانه.

هوش مصنوعی، عامل مرگ

به گفته ون دو پول، «کاربران اینترنت تمایل دارند به آنچه این هوش مصنوعی‌ها می‌گویند اعتماد کنند» که این موضوع، آنها را خطرناک می‌کند. این فقط یک خطر تئوری نیست، مردی در بلژیک در مارس ۲۰۲۳ پس از بحث در مورد عواقب گرمایش جهانی با یکی از هوش مصنوعی‌ها به مدت شش هفته، دست به خودکشی زد.

اختراع ترسناک متا/ هوش مصنوعی عامل خودکشی یک کاربر شد!

مهمتر از همه، اگر مرز بین دنیای هوش مصنوعی و انسان در نهایت به طور کامل محو شود، به طور بالقوه، اعتماد را به هر چیزی که آنلاین می‌یابیم از بین می‌برد زیرا ما نمی‌دانیم چه کسی چه چیزی را نوشته است. همانطور که کارشناسی در مقاله خود هشدار داد، این امر در را به روی ویران کردن تمدن ما باز می کند و چت کردن با هوش مصنوعی شبیه به هیلتون و دیگر اشخاص به این معنی است که ما در مسیر نابود کردن جهان هستیم.

منبع: france۲۴

۲۲۷۳۲۳