گوگل و قابلیت شناسایی احساسات در مدلهای هوش مصنوعی: پیشرفت یا چالش؟
گوگل به تازگی از خانواده جدید مدلهای هوش مصنوعی خود به نام PaliGemma 2 رونمایی کرده است که قابلیت منحصربهفردی دارد: شناسایی احساسات. این مدلها قادرند با تحلیل تصاویر، زیرنویسهای مرتبط و پاسخهایی درباره افراد در عکسها ارائه دهند.
به گفته گوگل، این مدلها میتوانند فراتر از شناسایی اشیاء، به تحلیل اقدامات، احساسات و داستان کلی صحنهها بپردازند. هرچند این قابلیت به آموزشهای خاص نیاز دارد، اما نگرانیهای متعددی در میان کارشناسان برانگیخته است.
چالشهای علمی و اخلاقی شناسایی احساسات
تلاش برای شناسایی احساسات با استفاده از هوش مصنوعی موضوع جدیدی نیست. بسیاری از شرکتها و سازمانها در طول سالها کوشیدهاند تا چنین فناوریای را توسعه دهند. با این حال، این تلاشها اغلب بر پایه نظریههای اولیهای چون نظریه شش احساس بنیادی پل اکهمن، روانشناس مشهور، بوده است که بر این باور بود که انسانها شش احساس مشترک دارند: عصبانیت، تعجب، انزجار، لذت، ترس و غم. با این حال، مطالعات بعدی این نظریه را زیر سوال بردهاند و نشان دادهاند که تفاوتهای عمدهای در نحوه ابراز احساسات در فرهنگها و پسزمینههای مختلف وجود دارد.
نگرانیهای اخلاقی شناسایی احساسات
برخی کارشناسان از پیامدهای اخلاقی شناسایی احساسات از طریق هوش مصنوعی نگران هستند. ساندرا واچتر، استاد اخلاق داده و هوش مصنوعی در موسسه اینترنت دانشگاه آکسفورد، اظهار میکند که این فناوری میتواند به «تبعیض ناعادلانه» و سوءاستفادههای گسترده در حوزههایی چون استخدام، حقوق و دستمزد، و حتی امنیت منجر شود. او میگوید که چنین ابزارهایی باید به دقت بررسی شوند تا از استفاده نادرست آنها جلوگیری شود.
البته گوگل اعلام کرده است که آزمونهای گستردهای برای ارزیابی بایاسهای جمعیتی در مدل PaliGemma 2 انجام داده و سطح مسمومیت و زبان توهینآمیز آن را نسبت به شاخصهای صنعتی پایین ارزیابی کرده است. با این حال، برخی محققان معتقدند که این مدلها همچنان بهطور بالقوه به بایاسهای نژادی و فرهنگی دچار هستند.
چالشهای آینده و نگرانیهای اجتماعی
با توجه به اینکه مدلهای مشابه در بسیاری از حوزهها از جمله تبلیغات، ارزیابیهای استخدامی و حتی نظارت قانونی استفاده میشوند، نگرانیها در مورد سوءاستفاده از این فناوری بسیار جدی است. نگرانی اصلی این است که این مدلها ممکن است بهطور نادرست احساسات افراد را تفسیر کنند و باعث تبعیض و اشتباهات در تصمیمگیریها شوند.
در نهایت، بسیاری از کارشناسان بر این باورند که مدلهایی مانند PaliGemma 2 باید با دقت بیشتری طراحی و بررسی شوند تا از ایجاد مشکلات اجتماعی و اخلاقی جلوگیری شود.
اولین دیدگاه را ثبت کنید