کدام واقعی است، کدام جعلی؟/ چهرههایی که وجود خارجی ندارند
زومیت نوشت: با پیشرفت چشمگیر فناوری هوش مصنوعی مولد تصویر، تشخیص چهرهها و تصاویر واقعی از جعلی کار دشواری است، اما مغز انسان میتواند این تفاوت را تشخیص دهد.
تا همین چند سال پیش، پژوهشگرها و سازندگان انیمیشن تنها قادر به ترسیم چهرههای انسانمانندی بودند که واقعی به نظر نمیرسیدند. فیلمهایی مثل قطار قطبی که در سال ۲۰۰۴ منتشر شد، باعث گیج شدن مخاطب شدند، چرا که چهرهی شخصیتها تقریباً به انسان شباهت داشتند و باعث سقوط مخاطب به درهای وهمی میشدند. این حالت زمانی به وجود میآید که چهرههای مصنوعی یا حتی رباتیک با وجود شباهت زیادی به انسان، علائمی تصنعی را در خود نشان میدهند.
پیشرفتهای اخیر در فناوری هوش مصنوعی (AI) میتواند به معنی عبور از دره وهمی باشد. چهرههای مصنوعی حالا شباهت زیادی به چهرههای واقعی دارند. اگر تاکنون به وبسایت ThisPersonDoesNotExist.com رفته باشید، با بازدید پیوسته از آن میتوانید تعداد نامحدودی چهره ایجاد کنید که هیچکدام متعلق به افراد واقعی نیستند. بلکه این چهرههای ترکیبی با الگویتم هوش مصنوعی موسوم به «شبکه مولد تخاصمی» یا GAN ایجاد شدهاند. این شبکه ترکیبی از دو شبکهی عصبی است و مدلهای کامپیوتری آن بر اساس چگونگی اتصال نورونها در مغز طراحی شدهاند.
شبکههای عصبی با یکدیگر رقابت میکنند. یکی از آنها تصاویر محتمل و جدیدی را ایجاد میکند (در این نمونه چهرهها) و دیگری برای تفکیک تصاویر واقعی از تصاویر جعلی تلاش میکند. مولد از طریق یک حلقه بازخورد، برای تولید تصاویر قانعکننده آموزش میبینند که در نهایت تفکیککننده قابلیت تشخیص تصاویر جعلی را از دست میدهد.
سیستم با استفاده از مجموعهی تصاویر واقعی در کنار تصاویر تولیدشده با مولد، نمونههای کاملاً جدید و واقعگرایانهای از چهرهها را میسازد. مولد نهایی هم تصاویری را تولید میکند که روی وبسایت میتوانید ببینید. بر اساس یافتهها، افراد بهسختی میتوانند چهرههای واقعی را از چهره افراد غیرواقعی تفکیک کنند. بر اساس یک بررسی، شرکتکنندگان تنها ۴۸٫۲ درصد مواقع تشخیص صحیح داشتند که این آمار حتی از حدس تصادفی با دقت ۵۰ درصد هم بدتر است. آنها همچنین چهرههای مصنوعی را قابل اعتمادتر از چهرههای واقعی ارزیابی کردند.
بر اساس پژوهشی دیگر، چهرههای مصنوعی از لحاظ درجهی واقعگرایی، رتبهی بیشتری را نسبت به چهرههای واقعی گرفتند. دلیل این مسئله هم میتواند این باشد که چهرههای جعلی اغلب اوقات، معمولیتر از چهرههای واقعی هستند، در نتیجه این چهرهها در فریب مخاطب عملکرد بهتری دارند.
آگاهی ناخودآگاه در مغز
پژوهشگرهای استرالیایی در آزمایشی دیگر به بررسی عمیق توانایی انسان برای تفکیک چهرههای واقعی و مصنوعی پرداختند. در اولین آزمایش، شرکتکنندگان آنلاین نتوانستند تصاویر واقعی و مصنوعی را از یکدیگر تشخیص دهند و باز هم چهرههای مصنوعی را واقعیتر از چهرههای واقعی ارزیابی کردند.
بااینحال دومین آزمایش داستانی متفاوت داشت. گروه جدیدی از شرکتکنندگان این بار در آزمایشگاه کلاههای الکترومغزنگاری (EEG) را روی سر خود گذاشتند. الکترودهای تعبیهشده در این کلاهها به اندازهگیری فعالیت الکتریکی در مغز شرکتکنندگان پرداختند.
از شرکتکنندگان خواسته شد توالی چهرهها را در حین پوشیدن یک کلاه و اندازهگیری فعالیت مغزی ببینند.
در طول آزمایش، چهرههای متفاوت در یک توالی سریع به شرکتکنندگان نشان داده شدند و در حالی که این اتفاق رخ میداد از شرکتکنندگان خواسته بودند در صورت تبدیل دایره سفید به دایرهی قرمز، دکمهای را فشار دهند. به این شیوه شرکتکنندگان بر مرکز صفحهی نمایش یعنی محل نمایش تصاویر تمرکز کردند.
نتایج آزمایش EEG نشاندهندهی تفاوت فعالیت مغزی در حین دیدن تصاویر واقعی بود. این تفاوت در حدود ۱۷۰ میلی ثانیه پس از ظاهر شدن چهرهها روی صفحهی نمایش آشکار شد.
مؤلفهی N170 سیگنال الکتریکی به ترکیببندی چهرهها به ویژه قالببندی و فاصلهی بین اجزای چهره حساس است؛ بنابراین یکی از توضیحات میتواند این باشد که چهرههای مصنوعی از لحاظ فاصلهی بین اجزای چهره مثل چشمها، بینی و دهان، متفاوت دیده میشوند.
بر اساس نتایج، تفاوتی بین رفتار ما و دانستههای مغزیمان وجود دارند. از یک سو، شرکتکنندگان آگاهانه چهرههای مصنوعی را از چهرههای واقعی تشخیص نمیدهند؛ اما از سوی دیگر مغز آنها میتواند تفاوتها را بر اساس فعالیت EEG تشخیص دهد.
شاید دسترسی مغز به اطلاعات خارج از خودآگاه عجیب به نظر برسد با اینحال نمونههای زیادی از این رفتار در روانشناسی دیده شدند. برای مثال کوربینی زمانی رخ میدهد که افراد نسبت به نیمهی دیگر میدان بصری خود کور هستند. با وجود این میتوانند نسبت به اشیایی که در سمت کورشان قرار دارد واکنش نشان دهند.
حالا که تولید چهرههای مصنوعی به کار نسبتا آسانی تبدیل شده است و به اندازهی عکسهای واقعی، باورپذیر هستند، باید نگران پروفایلهای آنلاین جعلی، اخبار جعلی و بسیاری از موارد اینچنینی باشیم. چنین پیشرفتهایی در فناوری هوش مصنوعی، پیامدهایی جدی را در آیندهای نزدیک به دنبال خواهند داشت. درنتیجه نیاز به راهبردها و مقیاسهایی برای کاهش این خطرها احساس میشود.
۵۸۵۸
ارسال دیدگاه
مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : ۰