کدام واقعی است، کدام جعلی؟/ چهره‌هایی که وجود خارجی ندارند

زومیت نوشت: با پیشرفت چشمگیر فناوری هوش مصنوعی مولد تصویر، تشخیص چهره‌ها و تصاویر واقعی از جعلی کار دشواری است، اما مغز انسان می‌تواند این تفاوت را تشخیص دهد.

تا همین چند سال پیش، پژوهشگرها و سازندگان انیمیشن تنها قادر به ترسیم چهره‌های انسان‌مانندی بودند که واقعی به نظر نمی‌رسیدند. فیلم‌هایی مثل قطار قطبی که در سال ۲۰۰۴ منتشر شد، باعث گیج شدن مخاطب شدند، چرا که چهره‌ی شخصیت‌ها تقریباً به انسان شباهت داشتند و باعث سقوط مخاطب به دره‌ای وهمی می‌شدند. این حالت زمانی به وجود می‌آید که چهره‌های مصنوعی یا حتی رباتیک با وجود شباهت زیادی به انسان، علائمی تصنعی را در خود نشان می‌دهند.

پیشرفت‌های اخیر در فناوری هوش مصنوعی (AI) می‌تواند به معنی عبور از دره وهمی باشد. چهره‌های مصنوعی حالا شباهت زیادی به چهره‌های واقعی دارند. اگر تاکنون به وب‌سایت ThisPersonDoesNotExist.com رفته باشید، با بازدید پیوسته از آن می‌توانید تعداد نامحدودی چهره‌ ایجاد کنید که هیچ‌کدام متعلق به افراد واقعی نیستند. بلکه این چهره‌های ترکیبی با الگویتم هوش مصنوعی موسوم به «شبکه مولد تخاصمی» یا GAN ایجاد شده‌اند. این شبکه ترکیبی از دو شبکه‌ی عصبی است و مدل‌های کامپیوتری آن بر اساس چگونگی اتصال نورون‌ها در مغز طراحی شده‌اند.

شبکه‌های عصبی با یکدیگر رقابت می‌کنند. یکی از آن‌ها تصاویر محتمل و جدیدی را ایجاد می‌کند (در این نمونه‌ چهره‌ها) و دیگری برای تفکیک تصاویر واقعی از تصاویر جعلی تلاش می‌کند. مولد از طریق یک حلقه‌ بازخورد، برای تولید تصاویر قانع‌کننده آموزش می‌بینند که در نهایت تفکیک‌کننده قابلیت تشخیص تصاویر جعلی را از دست می‌دهد.

سیستم با استفاده از مجموعه‌ی تصاویر واقعی در کنار تصاویر تولیدشده با مولد، نمونه‌های کاملاً جدید و واقع‌گرایانه‌ای از چهره‌ها را می‌سازد. مولد نهایی هم تصاویری را تولید می‌کند که روی وب‌سایت می‌توانید ببینید. بر اساس یافته‌ها، افراد به‌سختی می‌توانند چهره‌های واقعی را از چهره‌ افراد غیرواقعی تفکیک کنند. بر اساس یک بررسی، شرکت‌کنندگان تنها ۴۸٫۲ درصد مواقع تشخیص صحیح داشتند که این آمار حتی از حدس تصادفی با دقت ۵۰ درصد هم بدتر است. آن‌ها همچنین چهره‌های مصنوعی را قابل اعتمادتر از چهره‌های واقعی ارزیابی کردند.

بر اساس پژوهشی دیگر، چهره‌های مصنوعی از لحاظ درجه‌ی واقع‌گرایی، رتبه‌ی بیشتری را نسبت به چهره‌های واقعی گرفتند. دلیل این مسئله هم می‌تواند این باشد که چهره‌های جعلی اغلب اوقات، معمولی‌تر از چهره‌های واقعی هستند، در نتیجه این چهره‌ها در فریب مخاطب عملکرد بهتری دارند.

آگاهی ناخودآگاه در مغز

پژوهشگرهای استرالیایی در آزمایشی دیگر به بررسی عمیق توانایی انسان برای تفکیک چهره‌های واقعی و مصنوعی پرداختند. در اولین آزمایش، شرکت‌کنندگان آنلاین نتوانستند تصاویر واقعی و مصنوعی را از یکدیگر تشخیص دهند و باز هم چهره‌های مصنوعی را واقعی‌تر از چهره‌های واقعی ارزیابی کردند.

بااین‌حال دومین آزمایش داستانی متفاوت داشت. گروه جدیدی از شرکت‌کنندگان این بار در آزمایشگاه کلاه‌های الکترومغزنگاری (EEG) را روی سر خود گذاشتند. الکترودهای تعبیه‌شده در این کلاه‌ها به اندازه‌گیری فعالیت الکتریکی در مغز شرکت‌کنندگان پرداختند.

از شرکت‌کنندگان خواسته شد توالی چهره‌ها را در حین پوشیدن یک کلاه و اندازه‌گیری فعالیت مغزی ببینند.

در طول آزمایش، چهره‌های متفاوت در یک توالی سریع به شرکت‌کنندگان نشان داده شدند و در حالی که این اتفاق رخ می‌داد از شرکت‌کنندگان خواسته بودند در صورت تبدیل دایره سفید به دایره‌ی قرمز، دکمه‌ای را فشار دهند. به این شیوه شرکت‌کنندگان بر مرکز صفحه‌ی نمایش یعنی محل نمایش تصاویر تمرکز کردند.

نتایج آزمایش EEG نشان‌دهنده‌ی تفاوت فعالیت مغزی در حین دیدن تصاویر واقعی بود. این تفاوت در حدود ۱۷۰ میلی ثانیه پس از ظاهر شدن چهره‌ها روی صفحه‌ی نمایش آشکار شد.

مؤلفه‌ی N170 سیگنال الکتریکی به ترکیب‌بندی چهره‌ها به ویژه قالب‌بندی و فاصله‌ی بین اجزای چهره حساس است؛ بنابراین یکی از توضیحات می‌تواند این باشد که چهره‌های مصنوعی از لحاظ فاصله‌ی بین اجزای چهره مثل چشم‌ها، بینی و دهان، متفاوت دیده می‌شوند.

بر اساس نتایج، تفاوتی بین رفتار ما و دانسته‌های مغزی‌مان وجود دارند. از یک سو، شرکت‌کنندگان آگاهانه چهره‌های مصنوعی را از چهره‌های واقعی تشخیص نمی‌دهند؛ اما از سوی دیگر مغز آن‌ها می‌تواند تفاوت‌ها را بر اساس فعالیت EEG تشخیص دهد.

شاید دسترسی مغز به اطلاعات خارج از خودآگاه عجیب به نظر برسد با این‌حال نمونه‌های زیادی از این رفتار در روانشناسی دیده شدند. برای مثال کوربینی زمانی رخ می‌دهد که افراد نسبت به نیمه‌ی دیگر میدان بصری خود کور هستند. با وجود این می‌توانند نسبت به اشیایی که در سمت کورشان قرار دارد واکنش نشان دهند.

حالا که تولید چهره‌های مصنوعی به کار نسبتا آسانی تبدیل شده است و به اندازه‌ی عکس‌های واقعی، باورپذیر هستند، باید نگران پروفایل‌های آنلاین جعلی، اخبار جعلی و بسیاری از موارد این‌چنینی باشیم. چنین پیشرفت‌هایی در فناوری هوش مصنوعی، پیامدهایی جدی را در آینده‌ای نزدیک به دنبال خواهند داشت. درنتیجه نیاز به راهبردها و مقیاس‌هایی برای کاهش این خطرها احساس می‌شود.

۵۸۵۸