
حکمرانی هوش مصنوعی و ضرورت قانونگذاری در ایران: تجربه اتحادیه اروپا و چالشهای موجود
هوش مصنوعی، بهعنوان یکی از تأثیرگذارترین فناوریهای قرن بیستویکم، فرصتها و چالشهای بیسابقهای را پیش روی جوامع قرار داده است. درحالیکه اتحادیه اروپا با تصویب قطعنامههای جامع و تدوین چارچوبهای حقوقی و اخلاقی، گامهای بلندی در تنظیمگری این فناوری برداشته، ایران هنوز در ابتدای مسیر قانونگذاری هوش مصنوعی قرار دارد. سعید کریمی (دانشجوی دکتری فلسفه اخلاق) در این یادداشت، با نگاهی به تجربیات پیش روی اتحادیه اروپا و بررسی مفاهیم کلیدی مانند هوش مصنوعی قوی و ضعیف، بر ضرورت تدوین قوانین شفاف و اخلاقمحور در ایران تأکید میکند. از حفظ حریم خصوصی و حقوق شهروندان تا پیشگیری از مخاطرات حکمرانی هوش مصنوعی، این نوشتار به اهمیت ایجاد کمیتههای حقوقی تخصصی و همکاریهای بینالمللی برای همگامسازی ایران با استانداردهای جهانی میپردازد.
در طول یک سال گذشته، تمرکز اصلی من بر روی مطالعه در زمینه هوش مصنوعی و فلسفه ذهن بوده است. در همین راستا، به این نکته پی بردم که ضرورت فعالیتهای علمی در زمینه هوش مصنوعی در رشتههای مختلف علمی، از جمله حقوق، بیش از پیش اهمیت یافته است. یکی از نیازهای اساسی برای حقوقدانها و کسانی که در حوزههای حقوقی مشغول به تحصیل هستند، تدوین قوانین مشخص در زمینه هوش مصنوعی است، بهویژه در شرایطی که این فناوری روز به روز بیش از پیش بر جامعه تأثیرگذار است. هوش مصنوعی نه تنها فرصتهای بسیاری را در اختیار بشر قرار داده بلکه چالشهای جدیدی را نیز بهوجود آورده است.
اخیراً کتابی را مطالعه میکردم که به قوانین اتحادیه اروپا در حوزه هوش مصنوعی اختصاص داشت. اتحادیه اروپا در مقایسه با ایالات متحده، توجه ویژهای به این موضوع داشته و اقداماتی را برای تنظیم قوانین مربوط به هوش مصنوعی انجام داده است. حساسیت این اتحادیه در این زمینه بهویژه در مقایسه با سایر کشورهای دنیا، قابل توجه است و بهنظر میرسد با الگوبرداری از این قوانین و شیوههای اجرایی، میتوانیم گامهای مؤثری در زمینه قانونگذاری در این حوزه در کشور خود برداریم.
این یادداشت میتواند به اهمیت حفظ حقوق شهروندان، امنیت دادهها، و همچنین استفاده اخلاقی از هوش مصنوعی پرداخته و در نهایت به ضرورت تدوین قوانین و مقررات مربوط به هوش مصنوعی در ایران به عنوان یک اولویت ملی اشاره کند.
ابتدا لازم است به تعریف هوش مصنوعی عمومی پرداخته شود و تفاوت آن با هوش مصنوعی ضعیف بیان گردد. هوش مصنوعی عمومی (AGI) به معنای هوش مصنوعیای است که قادر به انجام طیف وسیعی از وظایف باشد و این وظایف شامل هوش شناختی، عاطفی و اخلاقی میشود. به عبارت دیگر، این نوع هوش مصنوعی نه تنها قادر به انجام وظایف مختلف است، بلکه قابلیتهایی مشابه با هوش انسانی از جمله درک، احساسات و تصمیمگیریهای اخلاقی را نیز داراست.[1]
جان سرل فیلسوف معاصر ذهن با استفاده از استدلال اتاق چینی هوش مصنوعی قوی را زیر سؤال برد و از طریق این استدلال، تفاوت هوش مصنوعی قوی و ضعیف آشکار میگردد.

طبق نظرات جان سرل در استدلال اتاق چینی، تفاوت اصلی بین هوش مصنوعی قوی و ضعیف در این است که هوش مصنوعی قوی به توانایی درک و تجربه واقعی مشابه انسانها اشاره دارد، در حالی که هوش مصنوعی ضعیف تنها به شبیهسازی رفتارهای هوشمندانه انسانها پرداخته و نمیتواند درک واقعی داشته باشد. سرل با استفاده از مثال اتاق چینی نشان میدهد که حتی اگر یک سیستم هوش مصنوعی قادر به شبیهسازی فرآیندهای شناختی انسان باشد (مثلاً از طریق برنامهای که آزمون تورینگ را برای درک زبان چینی میگذراند)،
این به این معنی نیست که آن سیستم واقعاً میفهمد یا دارای درک است. در این مثال، فردی که هیچ درکی از زبان چینی ندارد، تنها با استفاده از یک برنامه برای دستکاری نمادها پاسخهایی به سؤالات چینی میدهد، اما همچنان هیچ فهمی از زبان ندارد. بنابراین، سرل استدلال میکند که هوش مصنوعی قوی نمیتواند صرفاً با اجرای محاسبات و دستکاری نمادها به درک واقعی دست یابد، زیرا انسانها به نمادها معنا میدهند و این چیزی است که از سیستمهای هوش مصنوعی ضعیف، که تنها به شبیهسازی رفتارها پرداختهاند، متمایز است.
هوش مصنوعی ضعیف تنها قادر به انجام وظایف خاص و شبیهسازی رفتارهای هوشمندانه است، در حالی که هوش مصنوعی قوی به دنبال رسیدن به درک واقعی و آگاهی مشابه انسانها است.[2]
البته در یادداشت حاضر، فرض بر امکان هوش مصنوعی قوی است و این که اگر هوش مصنوعی قوی بتواند بر انسانها حکمرانی کند، چه پیامدهایی به بار خواهد آمد؟ البته باید قبل از این که چنین اتفاقی بیفتد، حقوقدانها قوانینی در این زمینه ایجاد کنند تا مطابق با آن قوانین پیش رفته و از خطرات احتمالی حکمرانی هوش مصنوعی پیشگیری شود. کاری که اتحادیه اروپا انجام داده است.
در ژانویهٔ 2017، کمیتهٔ امور حقوقی پارلمان اروپا گزارشی را برای تهیهٔ قطعنامهای با توصیههایی به کمیسیون اروپا در مورد جنبههای حقوق مدنی و اخلاقی رباتیک آماده کرد. این اقدام بر اساس مطالعات مربوط به جنبههای اخلاقی سامانههای سایبری-فیزیکی و قوانین مدنی رباتیک انجام شد. هدف این بود که مسیر قانونگذاری در زمینهٔ رباتیک و هوش مصنوعی هموار شود و کمیسیون اروپا طرحهایی را در این زمینه ارائه کند. پارلمان اروپا در تاریخ 16 فوریهٔ 2017 قطعنامهای را تصویب کرد که شامل توصیههایی برای ایجاد چارچوبی قانونی جهت استفادهٔ غیرنظامی از رباتها بود.
این قطعنامه شامل اصول اخلاقی همچون شفافیت و اصول زیستاخلاقی شناختهشده مانند احسان، عدم زیانرسانی، خودمختاری و عدالت بود. همچنین پیشنهادهایی برای ایجاد آژانسی اروپایی برای ارائهٔ راهنماییهای فنی و اخلاقی در زمینهٔ رباتیک و هوش مصنوعی، استانداردسازی، ایمنی، امنیت، حقوق مالکیت فکری، مسئولیتپذیری حقوقی، و تأثیرات اجتماعی این فناوریها مطرح شد. علاوه بر این، قطعنامه خواستار وضع قوانینی برای ثبت رباتها و ایجاد اصول مسئولیتپذیری مدنی در قبال خسارات ناشی از رباتها شد.[3]
بخش «اصول کلی» در این قطعنامه به «سه قانون رباتیک» اشاره کرده است که نویسندهٔ داستانهای علمیتخیلی آیزاک آسیموف در سال 1943 مطرح کرد: «۱. یک ربات نباید به انسان آسیبی برساند یا از طریق عدم اقدام، اجازه دهد که به انسان آسیبی برسد. ۲. یک ربات باید دستورات داده شده از سوی انسانها را اجرا کند مگر اینکه چنین دستوری با قانون اول در تضاد باشد. ۳. یک ربات باید از وجود خود محافظت کند، به شرطی که این حفاظت با قوانین اول یا دوم در تضاد نباشد.»[4]
در ادامه تأکید شده است که برای رسیدگی صحیح به توسعه رباتیک و هوش مصنوعی در کاربردهای غیرنظامی، داشتن یک تعریف مشترک از رباتهای هوشمند و خودمختار ضروری است.
متن دقیق قطعنامه که تعریفی ساده از ربات ارائه نداده، به شرح زیر است: «از کمیسیون خواسته میشود تا تعاریف مشترک اتحادیه برای سیستمهای فیزیکی سایبری، سیستمهای خودمختار، رباتهای هوشمند خودمختار و زیرمجموعههای آنها را با در نظر گرفتن ویژگیهای زیر از یک ربات هوشمند ارائه دهد: کسب خودمختاری از طریق حسگرها و/یا تبادل داده با محیط خود (ارتباطپذیری) و تحلیل و مبادله آن دادهها؛ یادگیری خود از تجربه و تعامل (معیار اختیاری)؛ حداقل یک پشتیبانی فیزیکی جزئی؛ تطبیق رفتار و اعمال آن با محیط؛ عدم وجود زندگی به معنای بیولوژیکی.»[5]
در قطعنامه پیشنهاد شده است که سیستمی برای ثبت رباتهای پیشرفته معرفی شود که تحت مدیریت آژانس اتحادیه اروپا برای رباتیک و هوش مصنوعی قرار گیرد. این سیستم بهمنظور پیگیری و تسهیل اجرای توصیهها، باید بر اساس معیارهایی برای طبقهبندی رباتها ایجاد شود و شامل تمام بازار داخلی اتحادیه اروپا باشد. در صورت تأسیس چنین آژانسی، مدیریت این سیستم به آن واگذار میشود. این آژانس برای اطمینان از هماهنگی قوانین بینمرزی و تضمین استقرار رباتهایی که با سطوح ایمنی و امنیت مورد نیاز سازگار هستند، ضروری بهنظر میآید.
علاوه بر این، در قطعنامه پیشنهاد شده است که دو کد اخلاقی برای مهندسان رباتیک و کمیتههای اخلاقی تحقیقاتی تهیه شود. این کدهای اخلاقی چهار اصل اخلاقی در مهندسی رباتیک را شامل میشوند که شامل فایدهمندی (رباتها باید به نفع انسانها عمل کنند)؛ عدم ضرر (رباتها نباید به انسانها آسیب برسانند)؛ خودمختاری (تعامل انسان با رباتها باید داوطلبانه باشد—قابلیت اتخاذ تصمیمی آگاهانه و بدون فشار در مورد شرایط تعامل با رباتها)؛ عدالت (منفعتهای رباتیک باید بهطور عادلانه توزیع شود). هدف از این اصول اخلاقی اطمینان از رعایت ایمنی، حریم خصوصی، کرامت و خودمختاری انسانها در تعاملات رباتها و هوش مصنوعی است.[6]
با توجه به این تحولات جهانی، بهویژه اقدامات اتحادیه اروپا، میتوان گفت که جمهوری اسلامی ایران نیز باید بهطور جدی در زمینه تدوین قوانین و اصول اخلاقی در خصوص هوش مصنوعی و رباتیک گام بردارد. در این راستا، پیشنهاد میشود که یک کمیته حقوقی ویژه برای بررسی و تدوین قوانین مربوط به هوش مصنوعی در ایران تشکیل شود.
این کمیته میتواند مسئول بررسی ابعاد مختلف حقوقی، اخلاقی، و اجتماعی این فناوریها باشد و بر اساس تجربیات جهانی و با در نظر گرفتن ویژگیهای فرهنگی و اجتماعی ایران، اقدام به تنظیم چارچوبهای قانونی و اخلاقی مناسب کند. همچنین، باید توجه داشت که با توسعه روزافزون هوش مصنوعی، بهویژه در زمینههای مختلفی همچون حقوق بشر، حریم خصوصی، و مسئولیتهای قانونی، کشورها باید با همکاریهای بینالمللی، استانداردهای جهانی را رعایت کرده و بهطور همزمان از ایجاد قوانین داخلی مناسب برای کنترل و نظارت بر فناوریهای نوین اطمینان حاصل کنند.
در نهایت، نباید فراموش کرد که این قوانین و اصول اخلاقی نهتنها بهمنظور کنترل خطرات و چالشها، بلکه برای استفاده صحیح از ظرفیتهای این فناوریها به نفع جامعه و بشریت باید طراحی شوند. به همین دلیل، بررسی دقیق و جامع از ابعاد حقوقی هوش مصنوعی و تدوین قوانین و استانداردهای مناسب در این زمینه امری ضروری است که باید هرچه سریعتر در دستور کار مسئولین قرار گیرد.
مطالبی که بیان شد تنها اشارهای کوچک به موضوع مورد بحث بود و در یادداشتهای آتی ادامه خواهد داشت.
ارجاعات:
[1]. Liao, Matthew, Ethics of Artificial Intelligence,2021: page 19.
[2]. Searle, Mind A Brief Introduction, 2004:89-92.
[3]. Nikolinakos, Nikos Th., EU Policy and Legal Framework for Artificial Intelligence, Robotics and Related Technologies, page 23- 24.
[4]. Isaac Asimov, Runaround, in I, Robot, 1942.
[5]. European Parliament Resolution of 16 February 2017, Section General Principles, point 1, p. 243.
[6]. Nikolinakos, Nikos Th., EU Policy and Legal Framework for Artificial Intelligence, Robotics and Related Technologies, page 25 – 26.
منابع
- Nikolinakos, Nikos Th., EU Policy and Legal Framework for Artificial Intelligence, Robotics and Related Technologies The AI Act,
- Asimov, Isaac. “Runaround.” In I, Robot. New York: Bantam Dell, 1942.
- S. Matthew, (2021), Ethics of Artificial Intelligence, Oxford University.
- Searle, John R., (2004), Mind A Brief Introduction, Published by Oxford University Press, Inc.
- European Parliament Resolution of 16 February 2017, Section “General Principles”, recital T.
پیشنهاد سردبیر: