قوانین هوش مصنوعی قرن بیست و یکم چگونه تعریف می شود؟

هوش مصنوعی امروز با پیش‌بینی خردمندان و صاحب‌نظران قرن بیستم تفاوت دارد. امروزه کاربرد هوش مصنوعی در برخی جنبه‌های زندگی بسیار طبیعی است. به طوریکه وجود هوش مصنوعی فراموش شده است. دنیای شگفت انگیر هوش مصنوعی اما روز به روز در حال پیشرفت است. با سرعتی چنین وصف‌ناپذیر جای خالی قوانین مدون احساس می‌شود. در صورت تمایل به آشنایی با علل نیاز به این قوانین و سرفصل‌های اساسی آنان با مقاله‌ی حاضر از مجله‌ی فناوری‌های توان‌افزا و پوشیدنی همراه باشید.

تصور آسیموف از محصول هوش مصنوعی ربات‌های انسان نما بود.

تصور آسیموف از محصول هوش مصنوعی ربات‌های انسان نما بود.

قوانین هوش مصنوعی امروزی در قیاس با پیش‌بینی‌های قرن بیستم

بیش از ۷۹ سال از تدوین قوانین هوش مصنوعی توسط ایزاک آسیموف می‌گذرد. در زمان آسیموف سه قانون طلایی خدشه ناپذیر به نظر می‌رسید، اما تجربیات ما از هوش مصنوعی امروز قوانین آسیموف را ناکافی می‌داند. امروزه هوش مصنوعی قسمت جدایی ناپذیر زندگی ۲.۷ میلیارد کاربر گوشی‌های هوشمند است. بسیاری از این افراد حتی حضور هوش مصنوعی را حس نمی‌کنند.

قوانین هوش مصنوعی سه گانه‌ی کتاب Runaround عبارتند از:

  • یک ربات نباید موجبات آسیب دیدن انسانی را فراهم آورد.
  • یک ربات نمی‌بایست از دستورات کاربر انسانی خود سرپیچی نماید مگر اینکه دستورات مغایر با قانون نخست باشد.
  • تا زمانی که مغایرتی با دو قانون پیشین رخ ندهد، ربات باید از هستی خود محافظت نماید.

در دهه‌ی ۱۹۴۰ میلادی چنین تصوری اجتناب ناپذیر بود. در روزگاری که هوش مصنوعی با ربات‌های انسان‌نما هویت می‌یافت تنها عوامل مهم در این سه قانون خلاصه می‌شد. در زمان آسیموف هنوز تصور شکل‌گیری گسترده‌ی شبکه‌های اجتماعی، الگوریتم‌های تبلیغ و جست و جوی هوشمند به ذهن کسی خطور نمی‌کرد. این درحالیست که امروزه وجود خطر جسمی از جانب هوش مصنوعی کمترین نگرانی بشر قرن بیست و یکم است.

سیاستمداران سراسر دنیا نبود قوانین موثر در حوزه‌ی هوش مصنوعی را احساس کرده‌اند و از صاحب‌نظران برای ارائه پیشنهادهای کاربردی نظرخواهی می‌کنند. صاحبنظران برجسته‌ی جهان نیز پیوسته خطرات رشد هوش مصنوعی بدون قانون ناظر را گوشزد می‌نمایند.

ابزارهای بسیاری که روزمره مورد استفاده قرار می‌دهید، محصولات هوش مصنوعی هستند.

تصور آسیموف از محصول هوش مصنوعی ربات‌های انسان نما بود.

حوزه ی قوانین هوش مصنوعی:

در گزارشی که در فوریه‌ی سال جاری(۲۰۱۸) در cambridge consultsnts با عنوان AI: Understanding And Harnessing The Potential منتشر شد، لزوم تدوین قوانین هوش مصنوعی در پنج حوزه مطرح شد:

  • قبول مسئولیت: لازم است فردی مسئول نحوه‌ي کارکرد سامانه‌ی خودکار باشد. این امر تنها برای پیگیری قانونی ضرورت ندارد بلکه برای ارائه بازخوردهای سامانه، پیگیری نتایج حاصله واعمال تغییرات نیز لازم است.
  • توصیف‌پذیری: باید بتوان نحوه‌ی رفتار کنونی سامانه را به اشخاص تاثیرپذیرفته از آن توضیح داد.
  • دقت: باید بتوان منابع خطا را شناسایی، تحلیل و ارزش‌گذاری نمود تا در صورت لزوم اقدام به خنثی‌سازی، حذف و کاهش آثار مخرب نمود.
  • شفافیت: خروجی سامانه‌ی خودکار باید قابل آزمایش، قابل بررسی (علنی و یا غیر علنی) باشد. باید بتوان این خروجی را نقد کرد و با تغییر داد. نتایج این فعالیت‌ها باید در اختیار عموم گیرد و برای ایشان توضیح داده شود.
  • عدالت: نحوه‌ی استفاده از این داده‌ها باید منطقی باشد و به حریم شخصی افراد احترام گذارد. این امر از پیش‌داوری جلوگیری کرده و بیطرفی افراد درگیر را به همراه خواهد داشت. ضمنا از بروز مشکل احتمالی نیز پیش‌گیری می‌نماید.

در این پنج مورد صراحتا به هوش مصنوعی اشاره نشده است. احتمالا دلیل این امر عدم توانایی ماشین در اتخاذ چنین تصمیم‌هایی در زمان تدوین این موارد بوده است. به ادعای نویسندگان مقاله این قوانین مستقل از شخصیت حقیقی یا حقوقی مجری قانون تعریف شده است.

در حال حاضر خطر جانی از جانب هوش مصنوعی تلفن‌های همراه وجود ندارد. کسی ادعا نمی‌کند که الگوریتم تشخیص چهره‌ی گوشی‌های همراه چنین قابلیتی داشته باشد. اما یک برنامه‌نویس بی‌اخلاق می‌تواند با سواستفاده از دوربین تلفن همراه به حریم شخصی اشخاص تجاوز کند. به همین دلیل قوانین هوش مصنوعی باید با تدوین گردد تا در صورت لزوم توانایی مقابله با خطر و خنثی سازی آن را داشته باشد.

با فراگیر شدن محصولات هوش مصنوعی، تدوین قوانین هوش مصنوعی از ملزومات قرن حاضر به نظر می‌رسد.

سرفصل‌های گوگل و هوش مصنوعی

شرکت گوگل سرخط‌های خاصی در مورد ماشین‌های هوشمند و فراگیرنده تدوین نموده است. تدوین این قوانین با پیش‌بینی مشکلات احتمالی آینده صورت پذیرفته است. این موارد حاصل آینده‌نگری، استفاده از پرسش‌های مطرح شده در پژوهش‌های دراز مدت و مشکلات کوچک امروزی است که در آینده می‌تواند زمینه ساز مشکلات بزرگی شود.

  • پیش‌گیری از اثار مخرب جانبی: چگونه می‌توان از کارکرد هدفمند هوش مصنوعی بدون ایجاد آسیب در محیط اطمینان حاصل کرد؟ به طور مثال آیا ربات می‌تواند در حین نظافت گلدانی را بیندازد؛ و دلیل این کار سریع‌تر بودن شکل تمیزکاری وی معرفی شود؟
  • پرهیز از تفسیر اشتباه نتیجه: باید از تفسیر درست نتیجه مطمئن بود. به طور مثال خطای تمیزکاری این ربات نظافت‌چی نباید زیر ماده‌ای که توانایی تشخیص مواد زیر آن وجود ندارد، لاپوشانی شود.
  • اشتباه قابل ارزیابی: باید از تمرکز سامانه‌ی خودکار بر نتایجی که ارزیابی مستمر آن‌ها ممکن نیست اطمینان حاصل کرد؟ به طور مثال نمی‌توان از کاربر انسانی به صورت متناوب در مورد روند کار توضیح خواست. این امر بسیار ناخوشایند و آزاردهنده است.
  • اکتشاف ایمن: چگونه می‌توان از کاوش ربات بدون ایجاد بازخورد منفی اطمینان حاصل کرد؟ به طور مثال یک ربات نظافت‌چی باید در مورد راهکارهای جاروکردن کاوش کند و راهکاری متفاوت را امتحان کند. اما نباید جاروی خیس را با وسایل برقی در تماس قرار دهد.
  • عملکرد تضمین شده و تعمیم‌پذیر: چگونه می‌توان از عملکرد درست ربات در خانه اطمینان حاصل کرد. به ویژه خانه‌هایی که با محیط تمرین نخستین ربات در مراحل یادگیری ماشین تفاوت دارند.
  • تجربه‌ی خوشایند اتصال به شبکه‌های اجتماعی و برقراری ارتباط با کمک هوش مصنوعی حاصل شده است.

سخن نهایی: قوانین هوش مصنوعی

آینده‌ی هوش مصنوعی تنها شرکت‌های بزرگی مانند گوگل را تحت تاثیر قرار نمی‌دهد. با همه‌گیر شدن تلفن‌های هوشمند و استفاده‌ی روزافزون از هوش مصنوعی در برنامه‌های کاربردی باید آینده‌ی هوش مصنوعی را بخشی از زندگی روزمره‌ی مردم دانست.

لازم است که دولت‌ها با تمرکز بر جنبه‌های اخلاقی استفاده از هوش مصنوعی، از انسانیت محافظت نمایند. هر چند قانون اطمینان از سلامت جسمی و عدم وقوع جنایت تنها به جوامع رباتیک کتاب آسیموف محدود نمی‌شود، واقع‌گرایی قرن حاضر و عقل سلیم نیازمندی به تدوین قوانین مناسب انسان قرن بیست و یکم را تائید می‌کند.


در همین زمینه در مجله‌ی فناوری‌های توان افزا و پوشیدنی:

آینده‌ی شغل‌ها در دنیای هوش مصنوعی و رباتیک (‌بخش نخست)

تاثیر هوش مصنوعی بر زندگی تا پنج سال آینده (بخش نخست)

AI Index و ارزیابی هوش مصنوعی


منبع:thenextweb

استفاده و بازنشر مطالب تنها با ذکر لینک منبع و نام (مجله فناوری‌های توان‌افزا و پوشیدنی) مجاز است.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

ExosNews on Telegram

ما را در تلگرام دنبال کنید!

مجله فناوریهای توان افزا و پوشیدنی

عضویت در کانال تلگرام
بستن