چند سال قبل، هوش مصنوعی به مرحله ای رسید که توانست یک تصویر را کامل درک کند و به پرسش ها در مورد آن پاسخ دهد؛ این همان فناوری است که Google Photos و سایر محصولات مشابه از آن استفاده می کنند.
به گزارش «تابناک» اما اکنون مشخص شده که وقتی هوش مصنوعی به یک تصویر نگاه می کند، چیزهایی کاملا متفاوت نسبت به یک انسان در آن می بیند یا به عبارت دیگر، تفسیر هوش مصنوعی از یک تصویر به کلی متفاوت با انسان است. طی یک آزمایش انجام گرفته توسط فیسبوک وVirginia Tech محققان متوجه شده اند که تفاوت اساسی بین نقاط مورد تمرکز یک انسان و هوش مصنوعی در یک تصویر و برای پاسخ دادن به سوالات مربوط به آن وجود دارد.
«لاورنس زیتنیک» و تیمی از متخصصان تکنولوژی های بصری رایانه ای در ابتدا از دو کارمند پلتفرم Mechanical Turk آمازون خواستند با نگاه کردن به یک تصویر چند سوال ابتدایی را در مورد آن پاسخ دهند.
سپس این تصویر شروع به مبهم شدن می کند؛ اما این دو نفر قادر بودند با کلیک بر هر بخش دلخواه از تصویر آن قسمت را از حالت ابهام بیرون سازند. این کلیک ها دقیقا بیانگر نقاطی روی تصویر است که انسان در هنگام نگاه کردن به تصویر و تفسیر آن روی آن تمرکز می کند.
بعد از آن همین آزمایش روی دو نمونه هوش مصنوعی که برای کار با تصاویر و تفسیر آنها ساخته شده بودند، تکرار شد. این دو هوش مصنوعی نیز برای دریافت جزئیات بیشتر بخش های مختلفی از تصویر مبهم شده را از حالت ابهام خارج کردند و محققان با داده های به دست آمده توانستند نقاط تمرکز این دو هوش مصنوعی بر روی تصاویر را مشخص کنند.
زمانی که کلیک های دو فرد انسانی بر روی تصویر با هم مقایسه شد، میانگین 0.63 در تطابق پذیری به دست آمد. محققان عدد یک را برای تطابق کامل در مقایسه نقاط تمرکز و عدد منفی یک را برای عدم تطابق کامل در نقاط تمرکز به عنوان معیار قرار دادند و زمانی که نقاط تمرکز انسان با هوش مصنوعی مورد مقایسه قرار گرفت، میانگین 0.26 به دست آمد.