جنبه ترسناک هوش مصنوعی؛ با اموات حرف بزنید!
به گزارش خبرآنلاین،دو جامعه شناس به نام Tomasz Hollanek و Katarzyna Nowaczyk-Basińska، نگرانی خود را در مورد زندگی پس از مرگ دیجیتال ابراز کردهاند. آنها بر این باورند که چتباتهایی که از افراد متوفی تقلید میکنند و گاهی اوقات رباتهای مرده، رباتهایغمانگیز یا روحربات نامیده میشوند، چندین سوال کلیدی اجتماعی و اخلاقی را مطرح میکنند.
مثلاً چه کسی پس ازمرگ صاحب دادههای یک فرد است؟ تأثیر روانی بر بازماندگان چیست؟ از روحربات برای چه کاری میتوان استفاده کرد؟ و چه کسی میتواند ربات را برای همیشه خاموش کند؟ چنین سوالاتی زمانی الهام بخش یک قسمت ترسناک از سریال علمی تخیلی Black Mirror بود، اگرچه بنظر نمیرسد چنین آیندهای داشته باشیم.
با این حال سناریویی وجود دارد که Hollanek و Nowaczyk-Basińska در مقاله تحقیقاتی اخیر خود مطرح کردند و بنظر میرسد که نباید آن را نادیده گرفت. به عنوان مثال، مادربزرگ یک زن 28 ساله تصمیم میگیرد که عکس، فیلم و اطلاعات مادربزرگش را در یک برنامه آپلود کند. این برنامه به زن این امکان را نمیدهد که با مادر بزرگ خود صحبت کند. اما اتفاقی عجیب رخ میدهد؛ مادربزرگ دیجیتالی در این آزمایش، در حالی که با نوهاش حرف میزند، شروع به فروش وسایل خود میکند.
به گفته کارشناسان، افراد ممکن است با چنین شبیهسازیهایی پیوندهای عاطفی قوی ایجاد کنند، اما آنها باید توجه داشته باشند که در عین حال آسیبپذیرتر میشوند. بنابراین به نظر میرسد حتی تشریفات در روحربات باید به روشی آبرومندانه انجام شود، چراکه به معنای نوعی تشییع جنازه دیجیتال است. اگرچه چنین توجهی به یک ربات چت هوش مصنوعی ممکن است در ابتدا پوچ به نظر برسد، اما در سال 2018، برخی از اخلاقشناسان استدلال کردند که بقایای دیجیتالی یک فرد ارزشمند است و باید به عنوان چیزی فراتر و به عنوان موجودی دارای ارزش ذاتی تلقی شود. این منطق با منشور اخلاق حرفهای شورای بینالمللی موزهها مطابقت دارد، که الزام میکند با بقایای انسانها با احترام و کرامت انسانی رفتار شود.
با این حال این دو اخلاقشناس بر این باورند که نمیتوان این رباتها را ممنوع کرد، اما میتوان کاری کرد که با دادههای افراد محترمانه رفتار کنند. همچنین نباید در فضاهایی عمومی استفاده شوند و فقط باید برای شخصیتهای مهم تاریخی باشد.
در سال 2022، فردی استدلال کرد که روحرباتها را میتوان به عنوان کمکهای پزشکی استفاده کرد. به عنوان مثال کودکی که یکی از عزیزانتش را از دست میدهد ممکن است گیج شود و اگر چنین رباتی وجود داشته باشد میتواند کمی به این کودک کمک کند. اما باز هم Hollanek و Nowaczyk-Basińska استدلال میکنند که این ایده بیش از حد محدود و محدودکننده است، زیرا به طور خاص به رباتهایی اشاره میکند که فقط برای پردازش غم و اندوه طراحی شدهاند.
در عوض، آنها معتقدند، این سیستم ها باید به طور معناداری شفافسازی شود تا کاربران به بهترین شکل ممکن بدانند برای چه چیزی به برنامه اطلاعات میدهند. همچنین متوجه شوند که چه خطراتن احتمالی در مورد این رباتها وجو دارد. همچنین باید بدانیم که روحربات چگونه غیر فعال میشود. به عنوان مثال، اگر فردی روحربات را به فرزند خود هدیه دهد، آیا شخص مجاز به انصراف است؟ یا اینکه قرار است روحربات برای هنمیشه در زنگی فرد وجود داشته باشد؟
بنابراین این دو کارشناس معتقدند برای هدایت توسعه چنین رباتی، داشتن نوعی نرده محافظ ضروری است و این تفکر انتقادی در مورد جاودانگی کاربران به طراحی تعامل هوش مصنوعی انسانی و تحقیقات اخلاقی AI کمک کند.