احساسات دیجیتالی:
در تحقیقی که محققان شرکت تسلا در رابطه با تدوین الگوریتم تصادفات خودرو های خودران انجام دادند یکی از فرضیه ها،عبارت از تصمیم گیری خودرو مرتبط با تصادفی احتمالی ست که بر عهده هوش خودرو واگذار شده است.
سناریو اینگونه طراحی شد که خودروی خودران در مسیری،بناگهان مواجهه با صحنه ایی میشود که فرصت ایست ندارد لذا یا باید دو بچه مدرسه ایی را زیر بگیرد ویا در آنِ واحد به سمت دیگری بپیچد ودر آن صورت با واگن قطاری که از آن سمت می آید برخورد خواهد کرد.خودرو کدام گزینه را باید انتخاب نماید؟
طبیعی ست که شرکت کنندگان گزینه اخلاقی یعنی گزینه دو را انتخاب نمایند.منتهی ادامه سناریو چنین بود اگر شما مالک خودرو بوده و در صندلی عقب آن خوابیده باشید و درصورت برخورد با واگن احتمال مرگتان ۷۰درصد باشد چی؟
در اینجاشرکت کنندگان به دو دسته تقسیم شدند گروهی گزینه یک و برخی گزینه دو را انتخاب کردند.
این تحقیق نشان میدهد که آپشن های انتخاب وسایلی امثال خودرو و اصولا هروسیله تمام هوشمند در سال ۲۰۵۰ کاملا متفاوت از آنچه که امروز رایج است بوده و شرکتهای سازنده ناگزیرند علاوه بر ملاحظات فنی و ایمنی، تولیدات خود را متاثر از روحیات واخلاقیات مشتریان هم طراحی کرده و بسازند.
فرض کنید راننده وهمسر وفرزندانش سوار اتومبیل شده و قبل از حرکت،منوی تنظیمات را باز کرده و در رابطه با انتخاب فدا شوندگی یا فداکنندگی به اختلاف نظر برسند!.وضعیت در این شرایط قابل پیش بینی نیست.نتیجه این خواهد شد که دولتها باید اجبارا وارد شوند و در تحمیل گزینه های اخلاقی به مشتریان مداخله و طراحی ها را قانونمند کرده و شرکتهای سازنده را ملزم به انجام آن نمایند!
نگرانی ها
نگرانی اما اینجاست اگر تصمیم گیرندگان پارلمانهای برخی کشورها،افرادی با تفکرات افراطی باشند نتیجه چه خواهد شد؟چه تضمینی هست که ساختار الگوریتم تصمیم گیری های هوش خودرو ودیگر تولیدات متاثر از قانونی نباشد که در آن جنسیت،ملیت،دین،گرایشات سیاسی و اختلاف سلایق و سایر مختصات فردی و شخصی افراد بر مبنای تعیین هویت آنها از روی چهره و… تعیین و طراحی نگردد؟
پ ن:الگوریتم به مجموعه ایی از دستورالعملهای دقیق وجامع اطلاق میگردد که جهت حل مسئله و دستیابی به هدفی مشخص برنامه نویسی وتوسط سیستم کد میشود.
تلخیص از کتاب:۲۱ درس برای قرن ۲۱ نوشته:یووال نوح هراری
احساسات دیجیتالی