حکمرانی هوش مصنوعی و ضرورت قانونگذاری در ایران: تجربه اتحادیه اروپا و چالش‌های موجود

هوش مصنوعی، به‌عنوان یکی از تأثیرگذارترین فناوری‌های قرن بیست‌ویکم، فرصت‌ها و چالش‌های بی‌سابقه‌ای را پیش روی جوامع قرار داده است. درحالی‌که اتحادیه اروپا با تصویب قطعنامه‌های جامع و تدوین چارچوب‌های حقوقی و اخلاقی، گام‌های بلندی در تنظیم‌گری این فناوری برداشته، ایران هنوز در ابتدای مسیر قانون‌گذاری هوش مصنوعی قرار دارد. سعید کریمی (دانشجوی دکتری فلسفه اخلاق) در این یادداشت، با نگاهی به تجربیات پیش روی اتحادیه اروپا و بررسی مفاهیم کلیدی مانند هوش مصنوعی قوی و ضعیف، بر ضرورت تدوین قوانین شفاف و اخلاق‌محور در ایران تأکید می‌کند. از حفظ حریم خصوصی و حقوق شهروندان تا پیشگیری از مخاطرات حکمرانی هوش مصنوعی، این نوشتار به اهمیت ایجاد کمیته‌های حقوقی تخصصی و همکاری‌های بین‌المللی برای همگام‌سازی ایران با استانداردهای جهانی می‌پردازد.

 

در طول یک سال گذشته، تمرکز اصلی من بر روی مطالعه در زمینه هوش مصنوعی و فلسفه ذهن بوده است. در همین راستا، به این نکته پی بردم که ضرورت فعالیت‌های علمی در زمینه هوش مصنوعی در رشته‌های مختلف علمی، از جمله حقوق، بیش از پیش اهمیت یافته است. یکی از نیازهای اساسی برای حقوقدان‌ها و کسانی که در حوزه‌های حقوقی مشغول به تحصیل هستند، تدوین قوانین مشخص در زمینه هوش مصنوعی است، به‌ویژه در شرایطی که این فناوری روز به روز بیش از پیش بر جامعه تأثیرگذار است. هوش مصنوعی نه تنها فرصت‌های بسیاری را در اختیار بشر قرار داده بلکه چالش‌های جدیدی را نیز به‌وجود آورده است.

اخیراً کتابی را مطالعه می‌کردم که به قوانین اتحادیه اروپا در حوزه هوش مصنوعی اختصاص داشت. اتحادیه اروپا در مقایسه با ایالات متحده، توجه ویژه‌ای به این موضوع داشته و اقداماتی را برای تنظیم قوانین مربوط به هوش مصنوعی انجام داده است. حساسیت این اتحادیه در این زمینه به‌ویژه در مقایسه با سایر کشورهای دنیا، قابل توجه است و به‌نظر می‌رسد با الگوبرداری از این قوانین و شیوه‌های اجرایی، می‌توانیم گام‌های مؤثری در زمینه قانونگذاری در این حوزه در کشور خود برداریم.

این یادداشت می‌تواند به اهمیت حفظ حقوق شهروندان، امنیت داده‌ها، و هم‌چنین استفاده اخلاقی از هوش مصنوعی پرداخته و در نهایت به ضرورت تدوین قوانین و مقررات مربوط به هوش مصنوعی در ایران به عنوان یک اولویت ملی اشاره کند.

ابتدا لازم است به تعریف هوش مصنوعی عمومی پرداخته شود و تفاوت آن با هوش مصنوعی ضعیف بیان گردد. هوش مصنوعی عمومی (AGI) به معنای هوش مصنوعی‌ای است که قادر به انجام طیف وسیعی از وظایف باشد و این وظایف شامل هوش شناختی، عاطفی و اخلاقی می‌شود. به عبارت دیگر، این نوع هوش مصنوعی نه تنها قادر به انجام وظایف مختلف است، بلکه قابلیت‌هایی مشابه با هوش انسانی از جمله درک، احساسات و تصمیم‌گیری‌های اخلاقی را نیز داراست.[1]

جان سرل فیلسوف معاصر ذهن با استفاده از استدلال اتاق چینی هوش مصنوعی قوی را زیر سؤال برد و از طریق این استدلال، تفاوت هوش مصنوعی قوی و ضعیف آشکار می‌گردد.

هوش مصنوعی

طبق نظرات جان سرل در استدلال اتاق چینی، تفاوت اصلی بین هوش مصنوعی قوی و ضعیف در این است که هوش مصنوعی قوی به توانایی درک و تجربه واقعی مشابه انسان‌ها اشاره دارد، در حالی که هوش مصنوعی ضعیف تنها به شبیه‌سازی رفتارهای هوشمندانه انسان‌ها پرداخته و نمی‌تواند درک واقعی داشته باشد. سرل با استفاده از مثال اتاق چینی نشان می‌دهد که حتی اگر یک سیستم هوش مصنوعی قادر به شبیه‌سازی فرآیندهای شناختی انسان باشد (مثلاً از طریق برنامه‌ای که آزمون تورینگ را برای درک زبان چینی می‌گذراند)،

این به این معنی نیست که آن سیستم واقعاً می‌فهمد یا دارای درک است. در این مثال، فردی که هیچ درکی از زبان چینی ندارد، تنها با استفاده از یک برنامه برای دستکاری نمادها پاسخ‌هایی به سؤالات چینی می‌دهد، اما همچنان هیچ فهمی از زبان ندارد. بنابراین، سرل استدلال می‌کند که هوش مصنوعی قوی نمی‌تواند صرفاً با اجرای محاسبات و دستکاری نمادها به درک واقعی دست یابد، زیرا انسان‌ها به نمادها معنا می‌دهند و این چیزی است که از سیستم‌های هوش مصنوعی ضعیف، که تنها به شبیه‌سازی رفتارها پرداخته‌اند، متمایز است.

هوش مصنوعی ضعیف تنها قادر به انجام وظایف خاص و شبیه‌سازی رفتارهای هوشمندانه است، در حالی که هوش مصنوعی قوی به دنبال رسیدن به درک واقعی و آگاهی مشابه انسان‌ها است.[2]

البته در یادداشت حاضر، فرض بر امکان هوش مصنوعی قوی است و این که اگر هوش مصنوعی قوی بتواند بر انسانها حکمرانی کند، چه پیامدهایی به بار خواهد آمد؟ البته باید قبل از این که چنین اتفاقی بیفتد، حقوق‌دان‌ها قوانینی در این زمینه ایجاد کنند تا مطابق با آن قوانین پیش رفته و از خطرات احتمالی حکمرانی هوش مصنوعی پیشگیری شود. کاری که اتحادیه اروپا انجام داده است.

در ژانویهٔ 2017، کمیتهٔ امور حقوقی پارلمان اروپا گزارشی را برای تهیهٔ قطعنامه‌ای با توصیه‌هایی به کمیسیون اروپا در مورد جنبه‌های حقوق مدنی و اخلاقی رباتیک آماده کرد. این اقدام بر اساس مطالعات مربوط به جنبه‌های اخلاقی سامانه‌های سایبری-فیزیکی و قوانین مدنی رباتیک انجام شد. هدف این بود که مسیر قانون‌گذاری در زمینهٔ رباتیک و هوش مصنوعی هموار شود و کمیسیون اروپا طرح‌هایی را در این زمینه ارائه کند. پارلمان اروپا در تاریخ 16 فوریهٔ 2017 قطعنامه‌ای را تصویب کرد که شامل توصیه‌هایی برای ایجاد چارچوبی قانونی جهت استفادهٔ غیرنظامی از ربات‌ها بود.

این قطعنامه شامل اصول اخلاقی همچون شفافیت و اصول زیست‌اخلاقی شناخته‌شده مانند احسان، عدم زیان‌رسانی، خودمختاری و عدالت بود. همچنین پیشنهادهایی برای ایجاد آژانسی اروپایی برای ارائهٔ راهنمایی‌های فنی و اخلاقی در زمینهٔ رباتیک و هوش مصنوعی، استانداردسازی، ایمنی، امنیت، حقوق مالکیت فکری، مسئولیت‌پذیری حقوقی، و تأثیرات اجتماعی این فناوری‌ها مطرح شد. علاوه بر این، قطعنامه خواستار وضع قوانینی برای ثبت ربات‌ها و ایجاد اصول مسئولیت‌پذیری مدنی در قبال خسارات ناشی از ربات‌ها شد.[3]

بخش «اصول کلی» در این قطعنامه به «سه قانون رباتیک» اشاره کرده است که نویسندهٔ داستان‌های علمی‌تخیلی آیزاک آسیموف در سال 1943 مطرح کرد: «۱. یک ربات نباید به انسان آسیبی برساند یا از طریق عدم اقدام، اجازه دهد که به انسان آسیبی برسد. ۲. یک ربات باید دستورات داده شده از سوی انسان‌ها را اجرا کند مگر اینکه چنین دستوری با قانون اول در تضاد باشد. ۳. یک ربات باید از وجود خود محافظت کند، به شرطی که این حفاظت با قوانین اول یا دوم در تضاد نباشد.»[4]

در ادامه تأکید شده است که برای رسیدگی صحیح به توسعه رباتیک و هوش مصنوعی در کاربردهای غیرنظامی، داشتن یک تعریف مشترک از ربات‌های هوشمند و خودمختار ضروری است.

متن دقیق قطعنامه که تعریفی ساده از ربات ارائه نداده، به شرح زیر است: «از کمیسیون خواسته می‌شود تا تعاریف مشترک اتحادیه برای سیستم‌های فیزیکی سایبری، سیستم‌های خودمختار، ربات‌های هوشمند خودمختار و زیرمجموعه‌های آنها را با در نظر گرفتن ویژگی‌های زیر از یک ربات هوشمند ارائه دهد: کسب خودمختاری از طریق حسگرها و/یا تبادل داده با محیط خود (ارتباط‌پذیری) و تحلیل و مبادله آن داده‌ها؛ یادگیری خود از تجربه و تعامل (معیار اختیاری)؛ حداقل یک پشتیبانی فیزیکی جزئی؛ تطبیق رفتار و اعمال آن با محیط؛ عدم وجود زندگی به معنای بیولوژیکی.»[5]

در قطعنامه پیشنهاد شده است که سیستمی برای ثبت ربات‌های پیشرفته معرفی شود که تحت مدیریت آژانس اتحادیه اروپا برای رباتیک و هوش مصنوعی قرار گیرد. این سیستم به‌منظور پیگیری و تسهیل اجرای توصیه‌ها، باید بر اساس معیارهایی برای طبقه‌بندی ربات‌ها ایجاد شود و شامل تمام بازار داخلی اتحادیه اروپا باشد. در صورت تأسیس چنین آژانسی، مدیریت این سیستم به آن واگذار می‌شود. این آژانس برای اطمینان از هماهنگی قوانین بین‌مرزی و تضمین استقرار ربات‌هایی که با سطوح ایمنی و امنیت مورد نیاز سازگار هستند، ضروری به‌نظر می‌آید.

علاوه بر این، در قطعنامه پیشنهاد شده است که دو کد اخلاقی برای مهندسان رباتیک و کمیته‌های اخلاقی تحقیقاتی تهیه شود. این کدهای اخلاقی چهار اصل اخلاقی در مهندسی رباتیک را شامل می‌شوند که شامل فایده‌مندی (ربات‌ها باید به نفع انسان‌ها عمل کنند)؛ عدم ضرر (ربات‌ها نباید به انسان‌ها آسیب برسانند)؛ خودمختاری (تعامل انسان با ربات‌ها باید داوطلبانه باشد—قابلیت اتخاذ تصمیمی آگاهانه و بدون فشار در مورد شرایط تعامل با ربات‌ها)؛ عدالت (منفعت‌های رباتیک باید به‌طور عادلانه توزیع شود). هدف از این اصول اخلاقی اطمینان از رعایت ایمنی، حریم خصوصی، کرامت و خودمختاری انسان‌ها در تعاملات ربات‌ها و هوش مصنوعی است.[6]

با توجه به این تحولات جهانی، به‌ویژه اقدامات اتحادیه اروپا، می‌توان گفت که جمهوری اسلامی ایران نیز باید به‌طور جدی در زمینه تدوین قوانین و اصول اخلاقی در خصوص هوش مصنوعی و رباتیک گام بردارد. در این راستا، پیشنهاد می‌شود که یک کمیته حقوقی ویژه برای بررسی و تدوین قوانین مربوط به هوش مصنوعی در ایران تشکیل شود.

این کمیته می‌تواند مسئول بررسی ابعاد مختلف حقوقی، اخلاقی، و اجتماعی این فناوری‌ها باشد و بر اساس تجربیات جهانی و با در نظر گرفتن ویژگی‌های فرهنگی و اجتماعی ایران، اقدام به تنظیم چارچوب‌های قانونی و اخلاقی مناسب کند. همچنین، باید توجه داشت که با توسعه روزافزون هوش مصنوعی، به‌ویژه در زمینه‌های مختلفی همچون حقوق بشر، حریم خصوصی، و مسئولیت‌های قانونی، کشورها باید با همکاری‌های بین‌المللی، استانداردهای جهانی را رعایت کرده و به‌طور همزمان از ایجاد قوانین داخلی مناسب برای کنترل و نظارت بر فناوری‌های نوین اطمینان حاصل کنند.

در نهایت، نباید فراموش کرد که این قوانین و اصول اخلاقی نه‌تنها به‌منظور کنترل خطرات و چالش‌ها، بلکه برای استفاده صحیح از ظرفیت‌های این فناوری‌ها به نفع جامعه و بشریت باید طراحی شوند. به همین دلیل، بررسی دقیق و جامع از ابعاد حقوقی هوش مصنوعی و تدوین قوانین و استانداردهای مناسب در این زمینه امری ضروری است که باید هرچه سریع‌تر در دستور کار مسئولین قرار گیرد.

مطالبی که بیان شد تنها اشاره‌ای کوچک به موضوع مورد بحث بود و در یادداشت‌های آتی ادامه خواهد داشت.

 

 

ارجاعات:

[1]. Liao, Matthew, Ethics of Artificial Intelligence,2021: page 19.

[2]. Searle, Mind A Brief Introduction, 2004:89-92.

[3]. Nikolinakos, Nikos Th., EU Policy and Legal Framework for Artificial Intelligence, Robotics and Related Technologies, page 23- 24.

[4]. Isaac Asimov, Runaround, in I, Robot, 1942.

[5]. European Parliament Resolution of 16 February 2017, Section General Principles, point 1, p. 243.

[6]. Nikolinakos, Nikos Th., EU Policy and Legal Framework for Artificial Intelligence, Robotics and Related Technologies, page 25 – 26.

 

 

منابع

  • Nikolinakos, Nikos Th., EU Policy and Legal Framework for Artificial Intelligence, Robotics and Related Technologies The AI Act,
  • Asimov, Isaac. “Runaround.” In I, Robot. New York: Bantam Dell, 1942.
  • S. Matthew, (2021), Ethics of Artificial Intelligence, Oxford University.
  • Searle, John R., (2004), Mind A Brief Introduction, Published by Oxford University Press, Inc.
  • European Parliament Resolution of 16 February 2017, Section “General Principles”, recital T.

 

پیشنهاد سردبیر:

آیت‌الله العظمی اِآی؛ هوش مصنوعی و آینده مرجعیت دینی

تأثیرات هوش مصنوعی بر آموزش دینی

مطالب مرتبط
درج دیدگاه

آدرس ایمیل شما منتشر نخواهد شد.