رابطه انسان و ربات چگونه است؟

ربات دایناسور کوچک چشمان بزرگ و آبی خود را پلک می زند و گردن خود را دراز می کند. سرش را به سمت انسان خم می کند که با نوازش پاسخ می دهد. دایناسور با رضایت ظاهری چشمانش را می بندد. اما هنگامی که ناگهان یخ می زند، انسان آن را بر می گرداند تا باتری هایش را بررسی کند.

باراک اوباما در حال تماشای آسیمو، رباتی که توسط هوندا ساخته شده است (عکس وزارت امور خارجه توسط ویلیام نگ / مالکیت عمومی).

باراک اوباما در حال تماشای آسیمو، رباتی که توسط هوندا ساخته شده است (عکس وزارت امور خارجه توسط ویلیام نگ / مالکیت عمومی).

اینکه چرا ما به روبات‌های اجتماعی به روشی که می‌کنیم پاسخ می‌دهیم – گاهی با آن‌ها به‌عنوان موجودات واقعی رفتار می‌کنیم، گاهی اوقات تشخیص می‌دهیم که آن‌ها ماشین هستند – سؤال اصلی پژوهش جدید روان‌شناس استنفورد است. هربرت کلارک، آلبرت ری لانگ، استاد روانشناسی، بازنشسته، در دانشکده علوم انسانی در دانشگاه استنفورد و همکار قدیمی او کرستین فیشر، استاد تعامل زبان و فناوری در دانشگاه جنوب دانمارک.

فیشر گفت: «این گیج کننده است که چگونه افراد از نظر اجتماعی به چیزهایی که در واقع ماشین هستند واکنش نشان می دهند. “در تعامل با یک روبات احساسات و اجتماعی بودن زیادی وجود دارد. چگونه می توان با این ماشین ها طوری برخورد کرد که انگار انسان های زنده هستند؟»

تبلیغات
ایکس

کلارک و فیشر استدلال می‌کنند که مردم ربات‌های اجتماعی را که برای تعامل با انسان‌ها طراحی شده‌اند، به‌عنوان تصویری از شخصیت‌ها تفسیر می‌کنند – شبیه به عروسک‌ها، بازیگران صحنه، و آدمک‌های بطن‌باز.

دیدگاه آنها بحث برانگیز است. کلارک و فیشر کاغذ اخیراً در مجله ظاهر شد علوم رفتاری و مغزی در کنار تفسیر باز همتایان، که در آن ده‌ها محقق در رشته‌های مختلف از سراسر جهان به نتایج آنها واکنش نشان دادند.

این بحث در دنیایی اهمیت دارد که در آن انسان ها به طور فزاینده ای با روبات ها روبرو می شوند و این روبات ها در توانایی های خود افزایش می یابند. درک چگونگی و چرایی تعامل اجتماعی مردم با ربات‌ها می‌تواند نحوه طراحی ربات‌های آینده را راهنمایی کند و همچنین نحوه تفسیر پاسخ‌های مردم به آن روبات‌ها را شکل دهد.

اصول اولیه مدل تصویرسازی

شخصی که مجسمه داوود میکل آنژ را مشاهده می کند می داند که این مجسمه تکه ای از سنگ مرمر حکاکی شده است. اما بیننده به طور همزمان آن را به عنوان تصویری از شخصیت کتاب مقدسی که برای نبرد با جالوت آماده می شود درک می کند.

به همین ترتیب، کلارک و فیشر گفتند، مردم می‌دانند که ربات‌های اجتماعی از سیم‌ها و حسگرهایی ساخته شده‌اند که به شکل تصویری از شخصیتی مانند یک دایناسور کوچک، یک سگ خانگی، یا یک مراقب یا مربی انسان است. اما وقتی مردم با این روبات‌ها تعامل می‌کنند، بیشتر مایلند با آن‌ها مانند شخصیت‌هایی که به تصویر می‌کشند رفتار کنند.

ما می‌فهمیم تصویر چیست، می‌فهمیم نقاشی چیست، می‌فهمیم فیلم چیست، و بنابراین می‌فهمیم ربات چیست، زیرا شخصیت ربات را دقیقاً به همان شکلی می‌سازیم که شخصیت‌هایی را که در آن می‌بینیم می‌سازیم. فیشر گفت: یک نقاشی یا فیلم.

کلارک گفت: مردم همچنین می دانند که شخصیت ها به طور خاص برای تعامل با انسان ها طراحی شده اند.

او گفت: «مردم می‌دانند که این روبات‌ها در نهایت مسئولیت افرادی هستند که آنها را طراحی کرده‌اند و در حال کار کردن با آن‌ها هستند.

این دانش زمانی وارد عمل می شود که مشکلی پیش بیاید، مانند رباتی که اطلاعات بدی را به اشتراک می گذارد یا کسی را مجروح می کند. مردم ربات را مسئول نمی دانند. آنها مالک یا اپراتور را سرزنش می‌کنند – با تأکید مجدد بر درک خود از شی و شخصیت.

نمای دیگری از یکی از همکاران دانشگاه استنفورد

یکی از تفسیرهایی که در مورد مدل تصویری بسط می‌یابد از یکی دیگر از محققان دانشگاه استنفورد آمده است. بایرون ریوزپل سی. ادواردز، استاد ارتباطات در دانشکده علوم انسانی و علوم در دانشگاه استنفورد، که به مطالعه نحوه پردازش روانشناختی شخصیت ها و آواتارهای رسانه ها از جمله روبات ها می پردازد.

ریوز استدلال می‌کند که در حالی که مردم گاهی با روبات‌ها به عنوان تصویر رفتار می‌کنند، می‌توانند واکنش‌های طبیعی سریعی نیز به روبات‌ها داشته باشند، که بعداً فکر می‌کنند – همان‌طور که ممکن است وقتی یک دایناسور در فیلمی روی صفحه ظاهر می‌شود، از ترس بپرید و سپس به خود یادآوری کنید که اینطور نیست. واقعی نیست

“این چیزهایی است که واقعا سریع فکر می کنند. منظورم این است که میلی ثانیه سریع است.» ریوز گفت. اکنون، انصافاً، (کلارک) فکر می‌کند که مدل تصویرسازی او برای آن پاسخ‌های سریع نیز کاربرد دارد. من تناسب خوبی با مفاهیم اصلی آنها نمی بینم. تصویر بر کلماتی مانند “قدردانی” و “تفسیر” و “تخیل” تأکید می کند و آنها فقط کندتر و متفکرتر به نظر می رسند. آنها نوعی پاسخ ادبی هستند: “من فعالانه وانمود می کنم که این واقعی است زیرا سرگرم کننده خواهد بود.” ”

کلارک و فیشر در پاسخ خود به تفسیرها خاطرنشان می کنند که غوطه ور شدن مردم در دنیای داستانی یک رمان، برای مثال، «مستمر است. آنها مجبور نیستند دوباره خود را با هر جمله یا پاراگراف جدید غرق کنند. همین امر در مورد ربات های اجتماعی نیز صادق است. مردم در هر مرحله جدید از تعامل خود با یک ربات به “زمان و تلاش” اضافی برای “بازتاب” نیاز ندارند.”

“در تعامل با یک ربات احساسات و اجتماعی بودن زیادی وجود دارد”

– کرستین فیشر، Ph.D.

آنها استدلال می کنند که درک تصاویر فوری و سریع است و حتی کودکان آنها را از سنین بسیار پایین درک می کنند.

کلارک گفت: “من یک نوه دارم که اکنون شش ساله است، اما زمانی که یک و نیم یا دو ساله بود، قبلاً می توانست عروسک ها را بردارد و با آنها به عنوان شخصیت رفتار کند.”

ریوز گفت مدل او به احتمال زیاد پیش‌بینی می‌کند که فناوری روباتیک اجتماعی در آینده چگونه پیشرفت خواهد کرد.

او گفت: «دایناسورها در فیلم‌ها بهتر و بهتر، آبدارتر و آبدارتر، و ترسناک‌تر و ترسناک‌تر هستند. “من فکر می کنم ربات ها نیز به آنجا خواهند رفت.”

درس هایی برای طراحان و تعامل کنندگان

کلارک و فیشر گفتند، در حالی که ممکن است انسان ها با روبات های اجتماعی مانند انسان ها یا حیوانات واقعی رفتار کنند، این فناوری تا تکرار تعامل واقعی انسان فاصله زیادی دارد.

کلارک می‌گوید: «برای برقراری ارتباط مؤثر افراد، حتی با چیزهای ساده‌ای مانند توصیف‌های فضایی، به مهارت واقعی نیاز است». «مردم دقیقاً می‌دانند که چگونه توصیفات، حرکات، نگاه چشمی و توجه متقابل را با هم ترکیب کنند تا به مردم بگویند اوضاع کجاست. خوب، اینکه روبات‌ها به همان اندازه مهارت داشته باشند – حتی در یک چیز ساده مانند آن – واقعاً بسیار سخت خواهد بود.

حتی ربات های اجتماعی پیشرفته نیز بسیار محدود هستند. اما وقتی مردم آنها را به عنوان شخصیت تفسیر می کنند، مستعد این هستند که توانایی های خود را بیش از حد ارزیابی کنند.

اگر یک معلم ریاضی ربات دارید، هنوز نمی توانید فرزندتان را با ربات تنها بگذارید. چرا؟ چون وقتی کودک در حال خفگی یا بالا رفتن از بالکن یا انجام کار دیگری است متوجه نمی شود.

این نوع تخمین بیش از حد باعث ایجاد مشکلاتی در سایر فناوری های محبوب اما محدود مانند دستیارهای صوتی و چت ربات های هوش مصنوعی می شود. کلارک گفت افرادی که ربات ها و فناوری های مشابه را طراحی می کنند باید محدودیت ها را برای کاربران شفاف تر کنند.

کلارک و فیشر گفتند مدل آنها نه تنها سطح کاری را که برای طراحی ربات های اجتماعی انجام می شود تشخیص می دهد، بلکه دیدگاه مثبتی نسبت به افرادی که با آنها در تعامل هستند را تشویق می کند. در مدل تصویری، فردی که با ربات دایناسور کوچک مانند یک حیوان خانگی رفتار می کند، رفتار عادی دارد.

فیشر گفت: «مدل ما نشان دهنده احترام به افرادی است که به روش های اجتماعی با روبات ها تعامل دارند. ما نیازی نداریم که آنها را تنها یا غیرمنطقی یا گیج یا به هیچ وجه ناقص فرض کنیم.”

این مقاله در ابتدا در تاریخ منتشر شده است اخبار استانفورد. را بخوانید مقاله اصلی.

منبع مقاله:

مقالات مرتبط

پاسخ‌ها

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *