هوش مصنوعی و سقوط اصول اخلاقی و انسانی

ما به عصر ارتباط دیجیتال و هوش مصنوعی وارد شده‌ایم. الگوریتم‌های پیچیده به طور فزاینده‌ای در تصمیم‌گیری‌های اساسی ما استفاده می‌شوند. بسیاری از این تصمیم‌گیری‌ها پاسخ یکتایی ندارند. چه کسی باید استخدام شود، اخراج شود یا ترفیع بگیرد؟ چه نوع اخباری باید برای چه گروه از افراد نمایش داده شود؟ اطلاعات به روز شده کدام یک از دوستانتان برای شما به نمایش درآید؟ با افزایش به‌کارگیری هوش مصنوعی در این سامانه‌ها ما حتی متوجه نخواهیم شد هوش مصنوعی دقیقا چگونه درباره این موضوع‌ها تصمیم‌گیری می‌کند. زینب توفکسی (Zeynep Tufekci) فعال در زمینه جامعه‌شناسی فناوری، در سخنرانی TED درباره چالش‌های هوش مصنوعی وپایبندی به ارزش‌های اخلاقی در این مسیر توضیح می‌دهد. با مجله فناوری‌های توان‌افزا و پوشیدنی همراه باشید.

هوش مصنوعی و سقوط اصول اخلاقی و انسانی

زینب توفکسی (Zeynep Tufekci) فعال در زمینه جامعه‌شناسی فناوری از نویسندگان روزنامه نیویورک تایمز و عضو هیئت‌علمی مرکز برکمن کلاین هاروارد در شاخه اینترنت و جامعه است. کتاب او به نام «توییتر و گاز اشک‌آور: قدرت و شکنندگی اعتراض‌های شبکه‌ای (Twitter and Tear Gas: The Power and Fragility of Networked Protest)» در سال ۲۰۱۷ به چاپ خواهد رسید. کتاب بعدی او نیز درباره الگوریتم‌هایی است که قادرند مشاهده کنند و قضاوت کنند.

او در سخنرانی TED توضیح می‌دهد که چطور هوش مصنوعی در تطبیق با الگوهای خطای انسانی شکست می‌خورد. «ما نمی‌توانیم مسئولیت‌های خود را به ماشین‌ها بسپاریم بلکه باید هرچه بیشتر بر اصول اخلاقی و انسانی پایبند باشیم.» او پرسش‌های مهمی درباره جامعه و زندگی مطرح می‌کند. با رشد و پیشرفت هوش مصنوعی فهم و کنترل آن دشوار خواهد شد.

سامانه‌های محاسباتی وجود دارد که حالت احساسی و حتی دروغ را از طریق تحلیل صورت انسان می تواند بفهمد. امروزه، دانشمندان در حال ساخت یک سیستم عامل هستند که آنچه یک میلیارد آدم هر روز می‌بینند را کنترل می‌کند. آن‌ها خودروهایی را ساختند که می‌توانند تصمیم بگیرند که چه کسی را زیر بگیرند. آن‌ها حتی در حال ساخت ماشین‌هایی هستند که ممکن است انسان‌ها را در جنگ بکشد. همه این موارد یعنی سقوط اخلاق‌.

ما پرسش‌هایی شبیه این موارد را می‌پرسیم: شرکت چه کسی را باید استخدام کند؟ کدام به‌روزرسانی از کدام دوست باید نشان داده شود؟ کدام متهم بیشتر شبیه خلافکارهاست؟ کدام بخش خبرها یا فیلم باید به مردم توصیه شود؟ از هوش مصنوعی در پاسخگویی به این پرسش‌ها استفاده می‌کنیم. اما اشتباهات احتمالی سامانه‌ها و قدرت آ‌ن‌ها را در انتخاب پاسخ درنظر نمی‌گیریم.

برای انجام کارهای پیچیده‌تر، نرم افزارهای ما بیشتر قدرتمند می‌شوند. در دهه گذشته الگوریتم‌های پیچیده پیشرفت‌های زیادی کرده‌اند. آن‌ها می‌توانند صورت انسان را شناسایی کنند. دست خط را تشخیص بدهند. تقلب در کارت اعتباری را کشف کنند. اسپم‌های ایمیل را مسدود کنند. زبان‌ها را ترجمه کنند. تومورها را در تصاویر پزشکی تشخیص دهند و حتی در بازی‌های شطرنج و گو (Go) انسان را مغلوب کنند.

بیشتر این پیشرفت‌ها از روشی به نام «یادگیری ماشین» به نتیجه رسیده‌اند. یادگیری ماشین با برنامه نویسی سنتی متفاوت هست. در برنامه‌نویسی سنتی به رایانه جزئیات دقیق دستور‌ها را می‌دهید. درحالی‌که در یادگیری ماشین، اطلاعات زیاد بدون ساختاری به سامانه موردنظر می‌دهید و سامانه به مرور زمان از اطلاعات دریافتی خود یاد می‌گیرد. در واقع قدرت سامانه هوش مصنوعی، همین است. این روند به دادن دستورالعمل به رایانه شباهتی ندارد. بلکه مانند این است که به تعدادی ماشین آموزش داده می‌شود.

این یک مشکل بزرگ است اگر سامانه هوش مصنوعی مطالب را اشتباه یاد بگیرد. یک الگوریتم استخدام را تصور کنید. سامانه‌ای که مردم را با استفاده از روش یادگیری ماشین استخدام می‌کند. این سامانه بر اساس اطلاعات کارمندان قبلی آموزش دیده شده است و دستور دارد که نیروی کار با بهره‌وری بالا را پیدا کند و استخدام کند. در حالی که استخدام توسط انسان می‌تواند غرض‌ورزانه باشد. در سامانه‌های هوشمند استخدام جنسیت و نژاد نادیده گرفته می‌شود که ویژگی خیلی خوبی است.

مسئله به همین‌جا ختم نمی‌شود. اخیرا، سامانه‌های محاسباتی می‌توانند از همه اطلاعات جزیی شما از طریق اطلاعات دیجیتالی شما آگاه شوند. حتی اگر شما آن اطلاعات را فاش نکرده باشید. سامانه‌های محاسباتی به جنسیت، ویژگی‌های شخصی‌، گرایش سیاسی‌ شما پی ‌می‌برند. آن‌ها قدرت پیش‌بینی با دقت بالایی را دارند.

اخیرا یک سامانه‌ محاسباتی توسعه پیدا کرده است که شانس افسردگی را بعد از وضع حمل پیش‌بینی می‌کند. این پیش‌بینی با کمک اطلاعات رسانه‌های اجتماعی انجام می‌شود. نتیجه این پژوهش بسیار هیجان‌انگیز است. سامانه می‌تواند احتمال افسردگی را ماه‌های قبل از شروع علائم بیماری پیش‌بینی کند. زمانی‌که هیچ علائمی از بیماری نیست. درواقع سامانه‌های هوش مصنوعی و یادگیری ماشین مانند جعبه سیاهی هستند که قدرت پیش‌گویی دارند. در حالی که شما متوجه نمی‌شوید ماشین چگونه پیش‌بینی می‌کند.

مسئله دیگر این است این سامانه‌ها اغلب روی اطلاعات به‌دست آمده از کارهای ما آموزش داده می‌شوند. آن‌ها فقط می‌توانند تمایلات ما را منعکس کنند و آن را تقویت کرده و دوباره به ما نشان دهند. به این جعبه‌های سیاه نباید قدرت غیر قابل کنترل داده شود.

مطمئنا باید این سامانه‌ها بررسی و باربینی شوند اما این کار تمام مشکلات ما را حل نمی‌کند. الگوریتم قدرتمند اخبار فیسبوک را در نظر بگیرید. فیسبوک همه چیز را رتبه بندی می‌کند و تصمیم می‌گیرد که چه‌ چیزی از همه دوستان و همه صفحه‌هایی که شما دنبال می‌کنید به شما نشان دهد.

در آگوست سال ۲۰۱۴ در شهر فرگوست (Ferguson) معترضان بعد از کشتن یک نوجوان آفریقایی- آمریکایی به وسیله یک پلیس سفید پوست شورش کردند. خبرهای معترضان در توییتر بسیاری از افراد قابل مشاهده بود اما در فیسبوک اینگونه نبود. فیسبوک تمایل دارد شما را تحت کنترل الگوریتم‌های خود نگه دارد. بر اساس الگوریتم فیسبوک خبرهایی که تعداد لایک و کامنت کمتری دارند به تعداد افراد کمتری نشان داده می‌شوند. بنابراین بسیاری در فیسبوک نتوانستند این خبر را ببینند. در عوض الگوریتم فیسبوک خبر چالش سطل آب یخ را برجسته کرده بود.

ماشین هوشمند می‌تواند اشتباه کند درجاهایی که هیچ شباهتی به الگوی خطای انسان‌ها ندارد. در جاهایی که ما انتظار و آمادگی برای آن نداریم. اتفاق بسیار بدی خواهد بود اگر کسی نتواند شغلی که شایسته آن است را بگیرد. بدتر از آن زمانی است که ماشین اشتباه کند و آن فرد شغل را نتواند بگیرد.

ما باید الگوریتم‌ها را با بررسی دقیق و موشکافانه توسعه دهیم. پیچیدگی امور انسانی فراتر از الگوریتم‌ها است. باید از الگوریتم‌ها و هوش مصنوعی برای تصمیم‌گیری بهتر استفاده کنیم. اما هوش مصنوعی نمی‌تواند از اشتباهات احتمالی جلوگیری کند. ما باید مسئولیت نتیجه را خود بر عهده بگیریم و بر اساس چارچوب جلو برویم. این بدان معناست که باید محکم‌تر ارزش‌ها و اخلاق انسانی را نگه داریم.


در همین زمینه بخوانیم:

>>هوش مصنوعی و چالش های اخلاقی آن
>>سخنرانی TED: اختراعات باورنکردنی هوش مصنوعی ادراکی


منبع: TED

«استفاده و بازنشر مطالب تنها با ذکر لینک منبع و نام (مجله فناوری‌های توان‌افزا و پوشیدنی) مجاز است»

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *