حکمرانی هوش مصنوعی (2) : مفاهیم، ابعاد و مؤلفه ها

نوع گزارش : گزارش های راهبردی

نویسندگان

1 کارشناس گروه سیاست پژوهی و آزمایشگاه حکمرانی، دفتر مطالعات بنیادین حکمرانی مرکز پژوهش های مجلس شورای اسلامی

2 کارشناس گروه سیاست پژوهش و آزمایشگاه حکمرانی دفتر مطالعات بنیادین حکمرانی، مرکز پژوهش های مجلس شورای اسلامی

3 معاون دفتر مطالعات بنیادین حکمرانی (گروه سیاست پژوهی و آزمایشگاه حکمرانی)، مرکز پژوهش های مجلس شورای اسلامی

10.22034/report.mrc.2025.1403.32.10.20340

چکیده

حکمرانی هوش مصنوعی به عنوان بستر راهبری توسعه هوش مصنوعی، یک مفهوم پویا و چندوجهی بوده و نقش مهمی در ساخت آینده جوامع مدرن ایفا خواهد کرد. حکمرانی هوش مصنوعی شامل مجموعه ای از فرایندها، استانداردها، قوانین و خط مشی ها می شود که به منظور راهبری، مدیریت، کنترل بهینه، توسعه و کاربست فناوری هوش مصنوعی و پیامدهای مرتبط با آن طراحی می شود. نتیجه آن اقداماتی است که هدف آن تضمین ایمنی، عدالت، شفافیت و اخلاق در توسعه، اجرا و استفاده از سیستم ها و فناوری های مبتنی بر هوش مصنوعی است. این اقدامات شامل: تعیین استانداردها و دستورالعمل ها، مدیریت داده ها، حفظ حریم خصوصی، تعیین مسئولیت ها و حقوق، مدیریت و نظارت بر الگوریتم ها و تضمین توسعه مداوم و پایداری استفاده از هوش مصنوعی برای همه سطوح فنی و دانشی جامعه است.
این گزارش مفاهیم مرتبط با حکمرانی هوش مصنوعی را تبیین کرده است. در این گزارش تلاش شده است ابعاد مختلف حکمرانی هوش مصنوعی مورد بررسی و تحلیل قرار گیرد. در این راستا ابتدا مفاهیم اساسی این حوزه ازجمله تعاریف و اهمیت حکمرانی هوش مصنوعی مورد بررسی قرار گرفته است؛ سپس به بررسی چالش های موجود در این زمینه پرداخته شده که شامل مسائل فنی، ذی نفعان و قواعد کلان(تنظیم گری) می شود. بررسی آمارهای بین المللی نیز نشان می دهد که توجه به اهمیت حکمرانی هوش مصنوعی به سرعت در حال گسترش است و تأثیرات آن بر جوامع قابل توجه است. ازآنجاکه هوش مصنوعی در سال های آتی یک فناوری تحولی، راهبردی در توسعه ابعاد مختلف زندگی اجتماعی خواهد بود، ضرورت پرداختن به حکمرانی هوش مصنوعی در کشور را دوچندان می سازد.

گزیده سیاستی

این گزارش با نگاهی نو به مفهوم حکمرانی هوش مصنوعی، پس از بررسی چالشها و فرصتهای کاربست این فناوری،  چارچوبی مفهومی جهت بهره مندی ایمن و مسئولانه از آن با هدف تضمین عدالت و امنیت در کنار پیشرفت هوش مصنوعی برای شهروندان ارائه می دهد.

کلیدواژه‌ها

موضوعات

 خلاصه مدیریتی

  • بیان/ شرح مسئله

استفاده فزاینده از هوش مصنوعی در زمینه‌های گوناگون نظیر بهداشت، آموزش، امنیت و خدمات عمومی، اهمیت ایجاد زیرساخت‌های حقوقی و اجرایی مناسب برای مدیریت این فناوری را دوچندان کرده است. کشورهای در حال توسعه همچون ایران، که با چالش‌هایی نظیر محدودیت زیرساخت‌های فنی، نبود نظام جامع حکمرانی داده و عدم آگاهی عمومی مواجه هستند، نیازمند ایجاد چارچوبی منسجم برای هدایت این فناوری‌اند. عدم مدیریت مؤثر بر توسعه و کاربست هوش مصنوعی ممکن است به تشدید نابرابری‌ها، نقض حریم خصوصی، تهدیدات امنیتی و کاهش اعتماد عمومی بینجامد.

  • نقطه نظرات / یافته‌های کلیدی

حکمرانی هوش مصنوعی به عنوان چارچوبی برای مدیریت و کنترل این فناوری، بر اصولی نظیر ایمنی، عدالت، شفافیت، و احترام به حقوق بشر استوار است. این مفهوم تنها به وضع مقررات محدود نمی‌شود، بلکه شامل سازوکارهایی برای ارتقای فرهنگ‌سازی، تقویت دانش عمومی و توانمندسازی ذی‌نفعان نیز می‌شود. علاوه بر این، حکمرانی هوش مصنوعی باید بتواند تعادلی میان نوآوری و رعایت ملاحظات اجتماعی ایجاد کند تا به ارتقای کیفیت زندگی کمک نماید و هم‌زمان از بروز خطرات و پیامدهای ناخواسته جلوگیری کند.

با توجه به این مهم و ابلاغ سند ملی هوش مصنوعی که بیانگر اهمیت راهبردی آن است، پرداخت به مفهوم حکمرانی هوش مصنوعی با هدف طراحی قواعد کلان کنشگری ذی‌نفعان این حوزه امری حیاتی است. قواعدی که به‌وضوح اهداف، مسئولیت‌ها و راهبردهای لازم جهت توسعه مؤثر و مطلوب این فناوری را تبیین کند و چابکی لازم برای مواجهه با تعارضات این حوزه را داشته باشند. از وجوه دیگر پرداخت راهبردی به مفهوم حکمرانی هوش مصنوعی، توانمندسازی مدیران و کارکنان بخش دولتی و خصوصی با هدف ارتقای سطح آگاهی و میزان پذیرش فناوری‌های مبتنی‌بر هوش مصنوعی است که خود از چالش‌های قابل‌توجه پیش‌رو کشورهاست.

در همین راستا توصیه‌های زیر پیشنهاد می‌شود:

  • پیشنهاد راهکارهای تقنینی، نظارتی یا سیاستی
  • حکمرانی داده: حکمرانی هوش مصنوعی، پیش از هر چیز، مستلزم طراحی نظام حکمرانی داده است. چراکه داده، به‌مثابه مواد خام در توسعه هوش مصنوعی است. در بند «۱» ماده(۵) سند ملی هوش مصنوعی (راهبردها و اقدامات ملی)، به «لزوم تدوین نظام حکمرانی داده، به‌منظور تسهیل در بهره‌برداری انتفاعی و غیرانتفاعی از داده‌های تولیدی کشور از طریق اصلاح قوانین و مقررات موجود و به رسمیت شناختن مالکیت و حق بهره‌برداری انتفاعی هر شخص یا نهاد بر داده‌های تولیدی خود با حفظ ملاحظات امنیت ملی، رعایت حریم خصوصی و اخلاق عمومی» اشاره شده است.
  • تدوین نظام نوآورانه تسهیلگر-تنظیم‌گر جامع و چندلایه: با توجه به ابلاغ سند ملی هوش مصنوعی و هدف‌گذاری‌های کلان آن، نیل به اهداف سند مستلزم طراحی نظامی است که شامل مجموعه‌ای از رهنمایی‌ها، قوانین و مقررات باشد که تمامی جنبه‌های توسعه و استفاده از هوش مصنوعی را پوشش دهد. این نظام باید به‌گونه‌ای طراحی شود که ضمن تضمین سرمایه‌گذاری استراتژیک، قابلیت انعطاف‌پذیری داشته باشد و بتواند با تغییرات سریع فناوری همگام شود و نیازهای مختلف جامعه را برآورده کند.
  • ایجاد سازوکارهای نظارت و ارزیابی: با توجه به بند «۶» ماده(4) سند ملی هوش مصنوعی (سیاست‌های راهبردی)، که به ضرورت نظارت و مراقبت بر تصمیمات و خودمختاری هوش مصنوعی و جلوگیری از رخ‌نمانگاری  و اعتبارسنجی اجتماعی بدون رعایت حقوق افراد و قوانین کشور تأکید دارد و در راستای اطمینان از رعایت قوانین و مقررات مربوط به حکمرانی هوش مصنوعی، ایجاد سازوکارهایی برای نظارت و ارزیابی منظم، با توجه به اینکه مقوله «نظارت» از کلان‌کارکردهای مجلس شورای اسلامی است، ضروریست. این سازوکارها باید طبق بند «3-1» «راهبردها و اقدامات ملی» سند ‌ملی هوش‌ مصنوعی، شامل «تدوین استانداردهای مربوط به مالکیت فکری تولیدات مبتنی‌بر هوش مصنوعی و به اشتراک‌گذاری داده و همچنین ایمنی و امنیت سیستم‌ها و خدمات هوش مصنوعی» باشد.
  • توسعه زیرساخت‌های فنی، فرهنگی و ترویجی: بند «۲» ماده (5) سند ملی‌ هوش مصنوعی با عنوان «آموزش و پژوهش»، به اهمیت توجه زیرساختی و ساختاری در توسعه منابع انسانی در این حوزه پرداخته است. در این راستا به‌منظور ارتقای نیروی انسانی مؤثر و توسعه هوش مصنوعی در کشور، لازم است که زیرساخت‌های فنی، فرهنگی و ترویجی مناسب ازجمله با بسترسازی تأسیس و گسترش اندیشکده‌ها، کانون‌های فکری و حلقه‌های میانی در حوزه هوش مصنوعی ایجاد شود.
  • ارتقای همکاری بین‌المللی: بند «۶» «راهبردها و اقدامات ملی» سند ملی هوش مصنوعی، به «تعاملات بین‌المللی» اشاره دارد. حکمرانی هوش مصنوعی یک مسئله جهانی بوده و نیازمند همکاری و تعامل بین کشورهاست. با توجه به گزاره‌های بند«۶»‌ام، ایجاد کنسرسیوم‌های منطقه‌ای و بین‌المللی با هدف تبادل دانش و فناوری و تدوین استانداردهای مشترک برای حکمرانی هوش مصنوعی، می‌تواند به بهبود کیفیت و کارایی حکمرانی‌این فناوری کمک کرده و از ایجاد انحصار و یکجانبه‌گرایی در حکمرانی جهانی آن پیشگیری کند. این همکاری‌ها می‌توانند به کشورهای مختلف امکان دهند تا با چالش‌های مشابه به‌طور مؤثرتر مقابله کرده و از تجربیات یکدیگر بهره‌برداری کنند.
  • توسعه مکانیسم‌های مشارکت عمومی: «تقویت مردم‌محوری و روحیه تعاون در توسعه و بهره‌برداری از هوش مصنوعی»، از موارد مورد توجه سند ملی هوش مصنوعی در ماده (4) یعنی «سیاست‌های راهبردی» است. مشارکت مردم، نخبگان و ذی‌نفعان مختلف در‌ فرایند تصمیم‌گیری و اجرای خط‌مشی‌های مربوط به حکمرانی هوش مصنوعی بسیار ضروری و ارزشمند است. بنابراین لازم است که مجلس و مرکز پژوهش‌ها، با توجه به ظرفیت‌های ارتباطی و اندیشکده‌های حکمرانی و‌ قانونگذاری استانی خود، سازوکارهایی برای بهره‌گیری نظرات و نگرش‌های گوناگون جامعه و ایجاد فضایی برای ارتباط مستقیم بین حاکمیت و شهروندان و بسط حکمرانی مردمی در توسعه هوش مصنوعی فراهم کنند.
  • تولید ادبیات حقوقی: در زمینه مسائل حقوقی، یکی از چالش‌های عمده کشور عدم وجود کلیدواژه‌های تخصصی فارسی ناظر به مفاهیم فنی- حقوقی در حوزه هوش مصنوعی است. ازاین‌رو پیشنهاد می‌شود برای تبیین مفهومی و ارائه این کلیدواژه‌های فارسی، کمیته‌ای میان‌رشته‌ای با مشارکت بخش‌های مختلف ذی‌نفع در مرکز پژوهش‌های مجلس در این زمینه تشکیل شود.

1. مقدمه

مفهوم هوش مصنوعی به تلاش‌هایی در توسعه کارکردهایی رایانه‌مبنا جهت تقلید هوش انسانی با بهره‌مندی از توانایی تفسیر و یادگیری از داده‌ها، می‌پردازد. برای نمونه شبکه‌های عصبی مصنوعی برای درک و تقلید از فعالیت نورون‌ها در مغز انسان طراحی شد؛ بعدها شبکه‌های عصبی پیچیده‌تری در اواخر قرن بیستم توسعه یافت و توانمندی‌هایی مانند تشخیص تصویر و گفتار را در این سیستم‌ها ایجاد کرد[1].

این تلاش‌ها منجر به معرفی مفهوم هوش مصنوعی به‌عنوان برنامه‌های کامپیوتری (یا ماشین‌هایی) شد که می‌توانند وظایف از پیش تعریف شده را با سرعت و دقت بسیار بالاتر انجام دهند. در موج اخیر پیشرفت‌های هوش مصنوعی که با پیشرفت در تجزیه‌وتحلیل کلان‌داده تسهیل شده است، قابلیت‌های هوش مصنوعی به برنامه‌های رایانه‌ای که می‌توانند حجم عظیمی از داده‌ها را یاد گرفته و بدون راهنمایی انسان تصمیم بگیرند -که معمولاً به‌عنوان الگوریتم‌های یادگیری ماشینی نامیده می‌شوند-، گسترش یافته است[1].

برخلاف الگوریتم‌های ابتدایی هوش مصنوعی که بر قوانین از پیش برنامه‌ریزی ‌شده برای اجرای وظایف تکراری تکیه می‌کردند، الگوریتم‌های یادگیری ماشینی با محاسبات آماری و قوانینی درباره نحوه یادگیری از داده‌ها طراحی شده‌اند که شامل «استدلال استنتاجی»، «ادراک»، «طبقه‌بندی» و «بهینه‌سازی» جهت تقلید اعمال انسانی است[3]و [4]. این اعمال می‌تواند شامل پیش‌بینی، درک، مواجهه، توصیه و مواردی از این دست که متأثر از هوش انسانی هستند، باشد.

ظرفیت‌های حاصل از فناوری هوش مصنوعی در تحول ابعاد تعامل حاکمیت‌ها و شهروندان قابل‌توجه است. ازجمله ظرفیت پیشرفت در پزشکی و بهداشت عمومی، حمل‌و‌نقل عمومی، انرژی، آموزش، علم، امنیت، رشد اقتصادی و پایداری محیط زیستاست[5]. بااین‌حال، خطرات آن نیز قابل‌توجه هستند و چالش‌های شدیدی را برای حکمرانی ایجاد می‌کنند. با رصد الگوی زمانی مواجهه با فناوری‌های نوین می‌توان پیش‌بینی کرد که احتمالاً در مواجهه به هوش مصنوعی، سیاستمداران، خط‌مشی‌گذاران و سایر ذی‌نفعان عمدتاً بر خطرات و آسیب‌های فناوری‌های مبتنی‌بر هوش مصنوعی تمرکز می‌کنند[4]. در مورد تأثیر فناوری‌های دیجیتال بر جامعه، چالش‌های مربوط به هوش مصنوعی، سیستم‌های مستقل و الگوریتم‌ها، اغلب در قالب فهرستی از موضوعات اساسی که شامل ملاحظات حکمرانی، سیاسی، حقوقی و اخلاقی است مورد بحث قرار می‌گیرند [5].

هدف کلی این گزارش، تشریح مفهوم حکمرانی بر هوش مصنوعی به تناسب کارکردها و چالش‌های این فناوری است. درک مشترک از مفاهیم هوش مصنوعی برای خط‌مشی‌گذاران، مدیران دولتی و شهروندان، هم‌زمان با درهم‌آمیختگی مفهوم هوش مصنوعی و امور حاکمیتی بسیار مهم است. با کاوش در مفهوم و چارچوب حکمرانی بر هوش مصنوعی، هدف ما روشن کردن ابعاد این مفهوم و کمک به بازتولید و توسعه کارآمد حکمرانی بر این حوزه از علم و فناوری است. با بررسی انتقادی وضعیت حکمرانی بر هوش مصنوعی در جهان، این گزارش به دنبال تبیین ارتباط با حکمرانی بر هوش مصنوعی و توسعه‌ پایدار هوش مصنوعی مسئول و مؤثر است.

 

2.پیشینه پژوهش

2-1. سوابق مطالعاتی (ترجیحاً در مرکز)

گزارش‌های متعددی در مرکز پژوهش‌های مجلس با کلیدواژه هوش مصنوعی تدوین ‌شده که شامل بررسی ابعاد گوناگون این فناوری است. برای مثال سلسله گزارش‌های «هوش مصنوعی در جهان»[6] کشورهایی را به‌صورت مجزا مورد بررسی قرار داده است. سه گزارش نیز تحت عناوین: «چالش‌ها و راهکارهای تحقق حکمرانی هوشمند»[7]، «تصمیم‌گیری مبتنی‌بر داده: رویکردی جهت تحول حکمرانی پارلمانی»[8] و «نگاشت نهادی و تقسیم‌کار ملی در حوزه توسعه هوش مصنوعی و حکمرانی داده‌محور»[9] در سال 1402 در مرکز به چاپ رسید که هرکدام به‌نوعی به‌مقوله حکمرانی هوش مصنوعی و رویکرد داده‌مبنا اشاره داشتند. دفتر مطالعات حکمرانی در گزارش دیگری با عنوان «بررسی لایحه برنامه هفتم توسعه (۸۸): توسعه پایدار هوش‌ مصنوعی در کشور»[10] آورده است که برنامه هفتم توسعه به‌عنوان ریل‌گذار پیشرفت کشور در پنج سال آینده، نقش مهمی در توسعه پایدار فناوری‌های نوین در کشور خواهد داشت. ازجمله فناوری‌هایی که طی سال‌های اجرای برنامه هفتم توسعه نقشی راهبردی در پیشرفت کشور خواهد داشت، فناوری هوش‌ مصنوعی است.

نظر به اهمیت بحث هوش مصنوعی در کشور و تأکیدات مقام معظم رهبری در سال ۱۴۰۳ مبنی‌بر آن، با تکیه بر گزارشات پیشین و مفاهیم بحث شده، در گزارش حاضر به وجوه گوناگون مفهوم حکمرانی هوش مصنوعی با هدف واکاوی ابعاد و وجوه مختلف فناوری هوش مصنوعی در جامعه با یک نگاه کل‌نگر و ارائه یک تصویر کلی از آن، پرداخته‌ شده است. لازمه این امر، ارائه پیشنهادهای عملیاتی برای کشور، بررسی تجربیات بین‌المللی و کشورهای پیشرو در این حوزه و در مرحله بعد پیشنهاد مدلی جهت مواجهه با هوش مصنوعی در کشور و طراحی نظام حکمرانی هوش مصنوعی مطلوب در کشور است که در این گزارش مدنظر خواهد بود.

2-2. سوابق تقنینی به همراه آسیب‌شناسی

در ارتباط با هوش مصنوعی در کشور، ماده ۶۵ قانون برنامه هفتم بند ج دولت را مکلف به نوشتن برنامه ملی هوش مصنوعی کرده است.‌ ضمنا سند ملی توسعه هوش مصنوعی ابلاغی سال 1403 حاوی موادی مرتبط با این گزارش است. ضروری است این سند که ایجاد خطوط راهنما و چارچوب‌های کلی توسعه هوش مصنوعی در کشور را مدنظر داشته است، در شیوه مواجهه با این فناوری و توسعه و جهت‌دهی حکمرانی هوش مصنوعی در کشور، مدنظر باشد. بنابراین کلیات این سند در ادامه بررسی خواهد شد.

در ماده (2)، اصول و مبانی ارزش حاکم بر این سند را شامل: اصل اعتقادی و ارزش‌های اسلامی، توجه به ابعاد وجودی انسان مبتنی‌بر فلسفه و معارف اسلامی، تأمین آرمان‌ها و ارزش‌های جامعه اسلامی، خوداتکایی، کرامت و عدالت، استقلال و امنیت، آینده‌نگری، امنیت داده‌ها، انحصارزدایی، جلوگیری از سلطه هوش مصنوعی بر انسان‌ها و تقویت ارتباطات انسانی و مواردی از این دست می‌داند.

در ماده (۳)، درخصوص اهداف کلان‌بر: ۱. تربیت سرمایه انسانی، ۲. ارتقا و تأمین زیرساخت‌ها، ۳. جهش تولیدات فکری، علمی و فناورانه، ۴. ارتقای نوآوری برپایه فناوری‌های بدیع با اثرگذاری اجتماعی و اقتصادی بالا، ۵. ارتقای رقابت‌پذیری اقتصادی کشور، ۶. ارتقای تعاملات آموزشی، فناورانه و اقتصادی بین‌المللی و ۷. ارتقای کیفیت حکمرانی تأکید شده است. همچنین شاخص‌هایی جهت ارزیابی کلان هرکدام از اهداف مذکور در بازه زمانی پنج‌ساله ذکر شده است.

ماده (۴)، مرتبط با سیاست‌های راهبردی را می‌توان به‌صورت‌کلی در این حوزه‌ها دسته‌بندی کرد: ۱.تحریک رشد اقتصادی و اشتغال و ارزش‌دهی به فعالیت‌های بنگاه‌های اقتصادی مرتبط با هوش مصنوعی و ایجاد زنجیره کامل ایده تا ثروت در این زمینه، ۲. پیشرفت در راستای ارزش‌های اسلامی و تقویت مردم‌محوری و تعاون، روابط اجتماعی، عدالت و قدرت ملی، ۳. تأکید بر حقوق افراد و قوانین کشور و مسئولیت‌‌پذیری و صیانت از اخلاق، کرامت انسانی، اعتماد به نفس، حافظه انسانی، خلاقیت و حفظ حریم خصوصی در توسعه این فناوری، ۴. توسعه کاربردهایی با فراگیری و اثرگذاری بالا و رافع چالش‌های ملی و خدمات عمومی، ۵. فرصت‌آفرینی برای‌‌ زیست‌بوم هوش مصنوعی در تعاملات بین‌المللی.

در ماده (۵)، راهبردها و اقدامات ملی مدنظر قرار گرفته: ۱. زیرساخت‌های حکمرانی (فنی، قانونی، تنظیم‌گری و استانداردسازی)، ۲. آموزش و پرورش (مهارت‌افزایی و تربیت نیروی انسانی)، ۳. زیرساخت داده و پردازش (ارتقای زیرساخت‌های نگهداری، امنیت، تاب‌آوری و تسهیل دسترسی به داده و امکانات پردازشی)، ۴. توسعه محصولات فناورانه و تجاری‌سازی، ۵. توسعه بازار در‌ زیست‌بوم هوش مصنوعی، ۶. تعاملات بین‌المللی در حوزه هوش مصنوعی، ۷.ترویج و فرهنگ‌سازی (ارتقای سواد عمومی و تناسب فرهنگی در استفاده صحیح از این فناوری) مورد تأکید قرار گرفته است.

ماده (۶)، به بیان اولویت‌های کشور در محورهای آموزش و پرورش، بهداشت و درمان، حکمرانی دولتی و خدمات عمومی، دفاعی، امنیتی و انتظامی، صنایع و انرژی، محیط زیست و کشاورزی، زبان و ادبیات فارسی، فرهنگ تمدن و سبک زندگی اسلامی-ایرانی، حقوقی و قضایی و رسانه و فضای مجازی پرداخته و در هر محور اولویت‌ها را ذیل دو اولویت الف و ب مشخص کرده است.

این ماده سازمان هوش مصنوعی را موظف به تهیه برنامه‌های ملی کاربست هوش مصنوعی در این حوزه‌ها با همکاری دستگاه‌های مرتبط ظرف مدت حداکثر ۶ ماه کرده است.

در ماده (۷)، جهت تدبیر‌ سازوکار اجرا برای این سند، نظارت کلان و سیاستگذاری بر آن را برعهده شورای عالی انقلاب فرهنگی قرار داده و ستاد علم، فناوری و نوآوری این شورا را مسئول رصد اجرای این سند و بازنگری‌های لازم قرار داده است.

‌‌همچنین شورای ملی راهبری هوش مصنوعی را جهت برنامه‌‌‌ریزی، راهبری و هماهنگی اجرای این سند با ترکیب مشخص از دستگاه‌های مختلف با حضور رئیس سازمان ملی هوش مصنوعی به‌عنوان دبیر شورا، تعیین کرده است. به‌علاوه این سازمان ذیل ریاست‌جمهوری، مأمور به سازمان‌دهی و توسعه‌‌ زیست‌بوم هوش مصنوعی در کشور شده است.

درنهایت دستگاه‌های اجرایی مسئول اجرای این سند، موظف به برنامه‌ریزی جهت لحاظ قرار دادن اقدامات موضوع مواد (۵) و (۶) در اولویت سالیانه و تدبیر منابع و ظرفیت‌های لازم در راستای تحقق اهداف این سند شده‌اند.

به‌نظر می‌رسد این سند به‌رغم جامعیت و تلاش در راستای شمولیت موضوعات مختلف تا حدودی دچار عدم انسجام و پراکندگی محتوایی شده است. برای نمونه برخی از عناوین ذیل مواد مختلف، با یکدیگر هم‌پوشانی داشته و برخی بسیار کلی و عمومی و برخی بسیار جزئی و پروژه‌‌ای، به بیان موارد پرداخته‌اند. حال آنکه از یک سند ملی، بیان اهداف و خط‌مشی‌ها به شکلی نظام‌مند و ساختاریافته با در نظرگیری ملاحظات و ظرفیت‌های موجود کشور در کنار تعیین اولویت‌های ملی‌ براساس این ملاحظات و ظرفیت‌ها در بازه زمانی مشخص، انتظار می‌رفت. پرداختن به انبوهی از مسائل، دغدغه‌ها و اولویت‌ها که در سطح بین‌المللی مطرح شده هرکدام در جای خود صحیح و قابل بررسی است، بدون تعیین اولویت‌های اصلی و تناسب با شرایط کشور وظرفیت‌ها و تهدیدهای پیش رو و پیشنهاد حدود ۴۰ مورد اولویت در حوزه‌های مختلف که غالباً یا کلی‌گویی و یا بسیار موردی و پروژه‌ای مطرح شده است، شایسته سند ملی هوش مصنوعی کشور نیست.

بااین‌حال کشور پس از عبور از چالش و کشمکش تدوین سند میان دستگاه‌های مختلف، اکنون صاحب یک سند ملی بوده که ضروری است با ملاحظه انتقادهای وارده، دستگاه‌های مختلف اجرایی و تقنینی‌ براساس این سند، اکنون به عرصه اقدام و عمل وارد شوند و در چارچوب‌های کلان مولفه های حکمرانی هوش مصنوعی لازم است برنامه ریزی‌های عملیاتی خود را آغاز کنند پیش از آنکه کشور در تحولات لحظه‌شمار این حوزه دچار عقب‌ماندگی غیرقابل جبران شود. در ضمن ضروری است باید با توجه به تحولات سریع این فناوری چه در کشور و چه در سطح جهان و منطقه، امکان بازنگری و بروزرسانی این سند، برای جبران خلاء ها و نقص ها فراهم باشد.

 

3.چرا حکمرانی هوش مصنوعی؟

 امروزه اهمیت توجه به فناوری هوش مصنوعی و توسعه آن در کشور، بر کسی پوشیده نیست. رهبر معظم انقلاب پس از تأکید بر قرارگیری کشور در 10 کشور برتر هوش مصنوعی، در اولین جلسه با هیئت دولت چهاردهم پس از ذکر مواردی از به‌کارگیری هوش مصنوعی در کشور فرمودند: «در مسئله‌ هوش مصنوعی بهره‌بردار بودن امتیاز نیست، لایه‌های عمیقی دارد این فناوری باید در آن لایه‌ها مسلط شد. آن لایه‌ها دست دیگران است». ایشان پس از اهمیت تسریع در تحقق این اهداف پیش از ایجاد سازمان‌های بین‌المللی بازدارنده از توسعه این فناوری در سایر کشورها فرمودند: «خودتان باید برسید به فناوری‌های عمیق و ژرف این مسئله‌، لایه‌های زیرساختی. لایه‌های زیرساختی هوش مصنوعی را باید در کشور دنبال کنید». توسعه پایدار هوش مصنوعی و دستیابی به لایه‌های زیرساختی مورد اشاره، جزء با وجود یک نظام ارزیابی، برنامه‌ریزی، اجرا و رصد به‌همراه تدبیر سازوکارهای نهادی مورد نیاز، در کشور ممکن نخواهد بود. به‌علاوه، با توجه به ظرفیت‌ها و توانمندی‌های هوش مصنوعی، کاربست هوش مصنوعی بدون نظارت و راهبری صحیح، می‌تواند آسیب‌ها و خطرات متعددی ازجمله آسیب‌های اجتماعی و اخلاقی قابل‌توجهی ایجاد کند.

مجموع این تدابیر در مواجهه با هوش مصنوعی ازجمله برنامه‌‌‌ریزی، رصد و ارزیابی، اجرا و تدبیر سازوکار و فرایند، نهاد و تقسیم وظایف، قوانین و مقررات، اصول و چارچوب‌ها و... را حکمرانی هوش مصنوعی می‌نامیم. هدف حکمرانی هوش مصنوعی، بسترسازی و تسهیل توسعه این فناوری با ایجاد توازن بین نوآوری‌ و ملاحظات قانونی، شرعی و اخلاقی به‌نحوی است که اطمینان حاصل شود که در کنار بهره‌مندی حداکثری از توانمندی‌های روزافزون این فناوری، سیستم‌های هوش مصنوعی، کرامت و حقوق اساسی انسان و جوامع را نقض نمی‌کنند.

 

4. چیستی حکمرانی هوش مصنوعی

حکمرانی هوش مصنوعی به چارچوبی اشاره دارد که تضمین می‌کند ابزارها و سیستم‌های هوش مصنوعی ایمن و اخلاقی هستند و در ادامه نیز بر همین منوال باقی خواهد ماند. حکمرانی هوش مصنوعی می‌تواند شامل قانون و مقرره‌گذاری، استانداردسازی، تنظیم‌گری، خط‌مشی‌‌گذاری، نهادسازی، حمایت،‌ تسهیلگری و بسترسازی، بازدارندگی و جرم‌انگاری و... باشد که می‌تواند مسیر کاربست، تحقیقات و توسعه هوش مصنوعی را برای اطمینان از رعایت عدالت، آزادی، کرامت، انصاف و احترام به نسبت به حقوق شهروندان، هدایت کند[11].

‌‌همچنین حکمرانی هوش مصنوعی شامل مکانیسم‌های نظارتی می‌شود که خطراتی مانند تعصب یا جانبداری، نقض حریم خصوصی، تشدید نابرابری‌ها، نقص آزادی‌های مدنی و سوء‌استفاده را مورد بررسی قرار می‌دهد و درعین‌حال، نوآوری و اعتماد را تقویت می‌کند. یک رویکرد اخلاقی برای حکمرانی هوش مصنوعی، مستلزم مشارکت طیف گسترده‌ای از‌ ذی‌نفعان،  ازجمله توسعه‌دهندگان، کاربران، خط‌مشی‌گذاران و اخلاق‌گرایان هوش مصنوعی است تا اطمینان حاصل شود که سیستم‌های مرتبط با هوش مصنوعی برای همسویی با ارزش‌های جامعه توسعه یافته و استفاده می‌شوند[12].

‌‌همچنین حکمرانی هوش مصنوعی به نقص‌های ذاتی ناشی از عنصر انسانی در ایجاد و نگهداری هوش مصنوعی می‌پردازد. ازآنجاکه هوش مصنوعی یک محصول مهندسی شده و حاصل یادگیری ماشینی بوده که توسط افراد ایجاد شده، مستعد سوگیری‌ها و خطاهای انسانی نیز است. حکمرانی هوش مصنوعی یک رویکرد ساختاریافته برای کاهش این خطرات ارائه کرده و تضمین می‌کند که الگوریتم‌های یادگیری ماشین، نظارت، ارزیابی و به‌روزرسانی می‌شوند تا از تصمیم‌های ناقص یا مضر جلوگیری شود[12]. با توجه به رشد سریع و گسترش روزافزون فناوری‌های مبتنی‌بر هوش مصنوعی، پرداختن به حکمرانی بر این فناوری‌ها، اهمیتی دوچندان یافته است. به‌دلیل پیچیدگی‌ها و تأثیرات گسترده هوش مصنوعی بر ابعاد مختلف زندگی بشر، ضروری است که مدل‌های حکمرانی متناسبی طراحی و پیاده‌سازی شوند. این مدل‌ها نه‌تنها باید بتوانند از مخاطرات احتمالی پیشگیری کنند، بلکه باید به‌گونه‌ای طراحی شوند که از مزایای بالقوه هوش مصنوعی به نفع جامعه بهره‌برداری کنند. بنابراین ضروری است در ابتدا، ابعاد و مؤلفه‌های این حکمرانی شناسایی شود.

4-1. ابعاد و‌ مؤلفه‌های اساسی حکمرانی هوش مصنوعی

یک مطالعه‌ سیاستی درباره‌ نقشه راه حوزه خط‌مشی هوش مصنوعی که در سال 2017 انجام شده نشان می‌دهد مسائل این حوزه در 5 محور کلان قرار می‌گیرد [8]:

  • عدالت و برابری: تا چه حد‌ می‌توان سیستم‌های هوش مصنوعی را طوری طراحی و اجرا کرد که ارزش‌های انسانی مانند انصاف، مسئولیت‌‌پذیری و شفافیت را منعکس کرده و از نابرابری‌ها و سوگیری‌ها جلوگیری کند؟
  • استفاده از زور و اجبار: ازآنجاکه سیستم‌های مبتنی‌بر هوش مصنوعی اکنون در تصمیم‌گیری در مورد استفاده از زور دخیل هستند، برای مثال در مورد سلاح‌های خودمختار چه مقدار کنترل انسانی لازم یا مورد نیاز است؟ چه کسی مسئولیت عواقب بر هوش مصنوعی را برعهده دارد؟
  • ایمنی و گواهینامه: به‌ویژه درجایی‌که سیستم‌های مبتنی‌بر هوش مصنوعی جلوه‌ فیزیکی دارند، چگونه آستانه‌های ایمنی را تعریف و تأیید می‌کنیم. برای مثال، از طریق تنظیم استاندارد و صدور گواهینامه؟
  • حریم خصوصی: ازآنجاکه سیستم‌های هوش مصنوعی توسط داده‌های آنلاین تغذیه می‌شوند، پیامدهای حریم خصوصی و تهدیدات حریم خصوصی جدید فناوری‌های نسل بعدی چیست؟ برای مثال، از نظر نظارت دولت یا نفوذ شرکت بر مشتریان؟
  • جابه‌جایی نیروی کار و مالیات: ماشین‌های مبتنی‌بر هوش مصنوعی تا چه اندازه جایگزین کارهایی می‌شوند که قبلاً توسط انسان انجام ‌شده است؟ آیا معنای کار را تغییر می‌دهند؟ اگر ربات‌ها مالیات نپردازند، هوش مصنوعی چه تأثیری بر امور مالی عمومی دارد؟

در ادبیات این حوزه، تعداد کمی از مقالات به‌صراحت حکمرانی هوش مصنوعی را تعریف می‌کنند[19]. تعریف حکمرانی هوش مصنوعی چالش‌برانگیز است. زیرا فقدان اجماع آکادمیک در مورد تعریف هوش مصنوعی و عناصر تشکیل‌دهنده آن وجود دارد[20] و[21].

جدول 1:تعاریف حکمرانی هوش مصنوعی و مضامین آن در ادبیات حکمرانی هوش مصنوعی [22]

تعریف حکمرانی هوش مصنوعی

مأخذ

حکمرانی هوش مصنوعی با حفظ تعادل بین تحقق منافع و بهینه‌سازی سطوح ریسک و استفاده از منابع، به دنبال ایجاد ارزش بهینه در این حوزه است.

هدف اصلی اجرای حکمرانی هوش مصنوعی این است که اطمینان حاصل شود که سازمان‌های دولتی قادر به انجام مدیریت ریسک، ارائه ارزش، همسویی استراتژیک مدیریت منابع و مدیریت عملکرد هستند تا برای همه ذی‌نفعان ارزش ایجاد کنند.

[21]

از منظر ایمنی هوش مصنوعی، حکمرانی سیستم‌های هوش مصنوعی مستلزم حل چالش همسویی ارزش‌هاست که هدف آن پیاده‌سازی سیستم‌های هوش مصنوعی است تا با ارزش‌های اخلاقی انسانی همسو باشند.

[23]

حکمرانی هوش مصنوعی را می‌توان به‌عنوان ابزارها، راه‌حل‌ها و اهرم‌های مختلفی که بر توسعه برنامه‌های مبتنی‌بر هوش مصنوعی تأثیر می‌گذارند، توصیف کرد. برخی از نمونه‌ها عبارتند از: ارتقای چارچوب‌های هنجاری، اخلاقیات و ارزش‌ها (که ممکن است به شکل خودتنظیمی ازسوی شرکت‌های پیشرو فناوری که روی پروژه‌های خاصی کار می‌کنند ارائه شود)، تحقیق در مورد آثار، پیامدها و راه‌حل‌های ممکن برای استفاده از هوش مصنوعی، افزایش آگاهی برای‌‌ ذی‌نفعان، تولید راه‌حل‌های فنی که با مسائل خاصی که توسط فناوری هوش مصنوعی مطرح می‌شود (مانند تفسیرپذیری الگوریتمی و توضیح‌پذیری که توانایی درک دقیق نحوه تصمیم‌گیری یک الگوریتم است) و اجرای اقدامات قانونی و ایجاد نهادهای رسمی نظارتی که صلاحیت اداره فناوری‌ها و زمینه‌های مرتبط با هوش مصنوعی را دارند.

[24]

مجموعه رو به رشدی از ادبیات که پرسش‌های مربوط به هوش مصنوعی و چارچوب‌های اخلاقی، قوانین حاکم بر تأثیر هوش مصنوعی و روباتیک، رویکردهای فنی مانند ارزیابی تأثیر الگوریتمی و ایجاد قابلیت اعتماد از طریق اعتبارسنجی سیستم را پوشش می‌دهد. این سه نیروی راهنما در حکمرانی هوش مصنوعی (قانون، اخلاق و فناوری) می‌توانند مکمل یکدیگر باشند.

[25]

 

«حکمرانی هوش مصنوعی شامل ملاحظات سیاسی، نظامی، اقتصادی، حاکمیتی و اخلاقی و ابعاد پیچیده است که هوش مصنوعی پیشرفته در جامعه ایجاد می‌کند. حکمرانی هوش مصنوعی را‌ می‌توان به اجزای دیگر یعنی «چشم‌انداز فنی، حکومت آرمانی و خط‌مشی هوش مصنوعی» تفکیک کرد.

[26]

الیمن و کستر در سال 2019 دیدگاه متفاوتی را اتخاذ کردند. آنها با بیان اینکه حکمرانی هوش مصنوعی بر پرداختن به الزامات اخلاقی جامعه، با تأکید ویژه بر همسویی ارزش‌های انسانی با اجرای هوش مصنوعی متمرکز است، بر (اهمیت) ارزش‌های اجتماعی و اخلاقی تأکید کردند[23]. زادجالی، در سال 2020 بر نقش دولت‌ها در رابطه با مفهوم‌پردازی حکمرانی هوش مصنوعی تأکید کرد و اظهار داشت که این شامل ظرفیت سازمان‌های حاکمیتی برای ایجاد ارزش برای همه ذی‌نفعان از طریق عملکردهای نظیر همسویی ارزش و مدیریت عملکرد است[27].

سه موضوع تکرارشونده از ادبیات حوزه حکمرانی هوش مصنوعی استخراج شده است که می‌توان آنها را جزو‌ مؤلفه‌های حکمرانی هوش مصنوعی دانست که عبارتند از:

۱. حکمرانی فناوری

موضوع حکمرانی فناوری، متمرکز بر داده‌ها و الگوریتم‌هایی است که پایه‌های فناوری‌های هوش مصنوعی هستند و همچنین چالش‌های حاکمیتی مرتبط با ویژگی‌های فنی سیستم‌های هوش مصنوعی را مورد بحث قرار می‌دهد. ادبیات بررسی شده شامل مطالعات متعددی است که چارچوب‌هایی را برای حکمرانی هوش مصنوعی با محوریت داده‌ها و الگوریتم‌ها توسعه می‌دهند و از حوزه‌هایی مانند ایمنی هوش مصنوعی و نوآوری مسئولانه استفاده می‌کنند[28] و [29].

دیدگاه فناوری شامل سه سطح به‌هم‌پیوسته است: داده‌ها، الگوریتم‌ها و سیستم‌های هوش مصنوعی. سیستم‌های هوش مصنوعی با بهره‌گیری از الگوریتم‌ها‌ براساس داده‌ها یاد می‌گیرند و تطبیق می‌یابند. بنابراین جای تعجب نیست که «حکمرانی داده» به‌عنوان یک ستون کلیدی «حکمرانی هوش مصنوعی» در نظر گرفته شود[30]. مطالعاتی که بر حکمرانی داده متمرکز شده‌اند، موضوعاتی مانند حریم خصوصی داده‌ها، حفاظت قانونی و یکپارچگی را مورد بحث قرار داده‌اند که جزء لاینفک ابتکارات عملی حکمرانی هوش مصنوعی هستند[31]. علاوه‌بر این، نقش داده‌های آموزشی به صراحت در ادبیات مورد بحث قرار می‌گیرد تا از عملکرد مناسب سیستم‌های هوش مصنوعی اطمینان حاصل شود.

برای مثال، استفاده از مجموعه داده‌های آموزشی متعدد به‌طور بالقوه می‌تواند پاسخ‌گویی را بهبود بخشد و داده‌های موجود در رسانه‌های اجتماعی، گزارش‌های مربوط به اقدامات بشردوستانه و تخلفات اخلاقی توسط نهادهای عمومی را می‌توان برای تسهیل خودآموزی سیستم‌های هوش مصنوعی برای رفتار اخلاقی مورد استفاده قرار داد[32].

شفافیت، توضیح‌‌پذیری و غیرقابل بررسی بودن الگوریتم‌ها، چالش‌های مهمی در حکمرانی هوش مصنوعی هستند. ازاین‌رو، الگوریتم‌ها و داده‌های مورد استفاده برای توسعه و آموزش مدل‌های هوش مصنوعی در مطالعات بررسی‌شده، با تأکید بر پاسخ‌گویی، شفافیت و توضیح‌پذیری مدل‌ها و الگوریتم‌های هوش مصنوعی مورد بحث قرار گرفته‌اند[33]. علاوه‌بر این، شفافیت الگوریتم‌ها و سیستم‌های هوش مصنوعی در اصول، دستورالعمل‌های نظارتی و اسناد موجود، وضعیت حیاتی دارد. مشکلات «جعبه سیاه» و کدورت توسط محققان به‌عنوان چالش‌های حکمرانی هوش مصنوعی درک می‌شوند که نیاز به راه‌حل‌های فنی دارند[29] و [34].

علاوه‌بر شفافیت، حکمرانی هوش مصنوعی با مسائل مربوط به عدالت و آسیب‌های احتمالی نیز سروکار دارد و الگوریتم‌های هوش مصنوعی به‌طور بالقوه می‌توانند پیامدهای نامطلوب اجتماعی متعددی ایجاد کنند[30].

بنابراین نگرانی‌هایی در مورد سوء‌استفاده و تبعیض احتمالی مرتبط با سیستم‌های هوش مصنوعی مطرح می‌شود. موضوعات مرتبط با «سوگیری»، یکی دیگر از نگرانی‌های کلیدی در ادبیات حکمرانی هوش مصنوعی است[33]. برای مثال، فرض بر این است که سوگیری در هوش مصنوعی می‌تواند‌ به‌دلیل طراحی، کد یا داده‌های آن، ایجاد شود و هر منبع سوگیری نیاز به یک رویکرد کاهش یا اصلاح متمایز دارد.

چنین تلاش‌هایی در مقابل حکمرانی هوش مصنوعی می‌تواند قابلیت اطمینان در سیستم‌های هوش مصنوعی را تأیید کند و منافع ذی‌نفعان (مانند مصرف‌کنندگان و شهروندان) را که تحت تأثیر آن قرار دارند، متعادل کند[29].‌ درحالی‌که این تصور رایج است که سیستم‌های هوش مصنوعی جعبه‌های سیاه غیرقابل کاوش هستند، کرول (2018) پیشنهاد کرد که این سیستم‌ها اساساً قابل درک هستند و تصور فعلی غیرقابل تشخیص بودن هوش مصنوعی می‌تواند ناشی از پویایی قدرت موجود در این حوزه باشد[35].

۲. ذینفعان

ذی‌نفعان به‌عنوان موضوع دوم، به بازیگران و نقش‌های درگیر در توسعه، استقرار و اداره سیستم‌های هوش مصنوعی اشاره دارد. در لایه کلان، ‌ذی‌نفعان حکمرانی هوش مصنوعی، وزارتخانه‌ها، سازمان‌ها و ادارات هستند که باید با توجه به اهداف برنامه‌های توسعه ملی، ظرفیت پذیرش ابزارهای مبتنی‌بر هوش مصنوعی را در خود ایجاد کرده، فراگردهای دولتی را بهبود بخشند و با ارتقای توانمندی امنیتی، حافظ امنیت اطلاعات و حریم خصوصی شهروندان باشند. ازطرف‌دیگر قوه مقننه موظف است که با ایجاد یک نظام پویا با هدف تسهیلگری و بازتوزیع صحیح این حوزه، به‌صورت مستمر و دائمی، قواعد و قوانین زمین بازی حکمرانی هوش مصنوعی را با هدف بهبود مستمر این حوزه، تغییر دهد.

هنگام بحث در مورد پویایی ‌ذی‌نفعان حکمرانی هوش مصنوعی، مطالعات بررسی شده نشان می‌دهد که تخصص فنی و قدرت عمدتاً در میان تعداد کمی از بازیگران،‌ به‌ویژه در شرکت‌های فناوری بزرگ با مجموعه داده‌های گسترده یافت می‌شود[34]. عدم تعادل قدرت بین بازیگرانی که مشخصات سیستم‌های هوش مصنوعی را تعیین می‌کنند (یعنی مقررات، هنجارهای سازمانی و شرکت‌ها) و متخصصانی که آنها را اجرا می‌کنند، وجود دارد. این موضوع می‌تواند به تخصیص نامتعادل مسئولیت‌های حکمرانی هوش مصنوعی بین ‌ذی‌نفعان تبدیل شود که در آن ممکن است به نفع سازمان‌های خصوصی،‌ به‌ویژه سازمان‌هایی که در اقتصادهای توسعه یافته‌تر مستقر هستند، اعمال شود[36].

‌علاوه‌بر توزیع نابرابر دانش فنی و قدرت، سلسله‌مراتب دیگری نیز بین ‌ذی‌نفعان مختلف حکمرانی هوش مصنوعی وجود دارد [28] و [36]. این‌ سلسله‌مراتب شامل میزان نفوذ، مسئولیت‌ها و سطوح پاسخ‌گویی متفاوت آن‌هاست. برای مثال، نهادهای بزرگ‌تر مانند دولت‌ها معمولاً با ایجاد و اصلاح دستورالعمل‌های موجود، نقش نظارتی قوی‌تری در حکمرانی هوش مصنوعی ایفا می‌کنند [34].

۳. مقررات و فرایندها

موضوع سوم به قانون و مقرره‌‌گذاری و تنظیم‌گری در حکمرانی هوش مصنوعی اشاره دارد. مقررات موجود برای حکمرانی هوش مصنوعی شامل قوانین سخت (قانون الزام‌آور) و رویکردهای حکمرانی نرم، ازجمله استانداردها، گواهی‌‌‌ها، ممیزی‌هاست[37]. قوانین سخت، مانند قوانین ضد تبعیض و مقررات حفاظت از داده‌های عمومی اتحادیه اروپا، پایه‌های نظارتی ضروری حکمرانی هوش مصنوعی هستند[38].

مکانیسم‌های حکمرانی نرم (مانند استانداردها)، درجات کمتری از رسمیت نهادی و انعطاف‌پذیری بیشتری نسبت به قوانین سخت دارند. استانداردسازی اجرای عملی حکمرانی هوش مصنوعی در مراحل شکل‌گیری خود است[39]. سازمان بین‌المللی استاندارد ISO و IEEE دو نهاد مهم استانداردسازی در حکمرانی هوش مصنوعی هستند. بر این اساس، ایزو، یک گروه کاری برای قابلیت اطمینان هوش مصنوعی راه‌‌‌‌اندازی کرده است تا به شفافیت و قابلیت ردیابی هوش مصنوعی رسیدگی کند. به‌طور مشابه، IEEE سری استانداردهای P7000 را ایجاد کرده که P7001 مربوط به استانداردسازی شفافیت سیستم‌های مستقل و تعیین دلایل تصمیم‌گیری آن است[39]. چنین استانداردهایی می‌توانند توسط ‌ذی‌نفعان گوناگون برای توسعه سطوح شفافیت قابل اندازه‌‌‌‌‌گیری استفاده شوند.

حکمرانی نرم همچنین شامل اصولی مانند استحکام فنی، امنیت داده‌ها، حریم خصوصی، قابلیت اطمینان، شفافیت، انصاف و مسئولیت‌پذیریاست [1].

در ادامه جهت ادراک بهتر مفاهیم فوق، به‌صورت خلاصه، به مواردی از «حکمرانی هوش مصنوعی» در جهان اشاره می‌شود.

 

5.نگاهی به وضعیت کنونی حکمرانی هوش مصنوعی در جهان

 در این بخش به‌صورت گذرا، رویکرد‌ها و فعالیت‌های پنج مورد مطالعاتی در حوزه حکمرانی هوش مصنوعی بیان می‌شود که شامل: اتحادیه اروپا، آمریکا، چین، هند و سنگاپور است.

‌‌‌‌‌ازآنجاکه بخش‌های گوناگون حاکمیت نیز با مقوله هوش مصنوعی سروکار دارند، آنها نیز با ابهامات اخلاقی و قانونی جدیدی مواجه خواهند بود. اندیشکده‌ها، سازمان‌های تحقیقاتی و سایر گروه‌ها در حال ارائه توصیه‌هایی به خط‌مشی‌گذاران در مورد چگونگی اطمینان از استفاده مسئولانه و اخلاقی از هوش مصنوعی هستند. قانون مهم حفاظت از داده‌های عمومی اتحادیه اروپا (GDPR) که در سال 2018 اجرایی شد، نمونه‌ای از این تلاش‌های آغازین بود و به قانون جامع AI ACT اتحادیه اروپا منتهی شد. برخی از کشورها، اصولی را برای هوش مصنوعی تدوین کرده‌اند،‌ درحالی‌که برخی دیگر در حال تهیه پیش‌نویس قوانین و مقررات هستند. کاسینز نیومن می‌گوید: «برنامه‌های خاص کاربردی مبتنی‌بر هوش مصنوعی وجود دارد که ممکن است به‌قدری برای گروه‌هایی از مردم مضر باشد که فرایندهای خود تنظیمی صنعت کافی نباشد. دولت‌ها در حال بیدار شدن از این واقعیت هستند که باید در مورد این موضوع به روشی کاملاً جامع فکر کنند».  براندون پرسل، تحلیلگر اصلی در Forrester Research، می‌افزاید: «قانونگذاران باید به فناوری‌ها برسند» و تکنولوژی با سرعت سرسام‌آوری در حال حرکت است.

در این بخش از گزارش به تفکیک مواردی از مواجهه کشورها با بحث حکمرانی هوش مصنوعی بیان شده است. پرداخت به‌مقوله حکمرانی هوش مصنوعی، به مانند خود هوش مصنوعی، به‌صورت مستمر و دائمی در حال توسعه و پیشرفت است. درحالی‌که برخی از کشورها، لوایح و قوانین سیاستی در حوزه حکمرانی هوش مصنوعی تدوین کرده‌اند، بخش‌ قابل‌توجهی از کشورهای جهان، همچنان در مرحله پژوهش و مطالعه این مهم هستند.

5-1. اروپا

اتحادیه اروپا، خود را به‌عنوان یک پیشرو جهانی در بحث حکمرانی هوش مصنوعی معرفی کرده است. مقررات عمومی حفاظت از داده‌ها (GDPR) در سال 2018 اجرایی شد و دامنه آن به برخی از سازمان‌های خارج از اتحادیه اروپا نیز گسترش یافت[41].

تعدادی از کشورهای اروپایی نیز در حال بررسی مقررات خود هستند و گام‌های اولیه را برای اعمال سیاست‌ها برداشته‌اند. استفاده از هوش مصنوعی در اتحادیه اروپا توسط قانون اقدام هوش مصنوعی، اولین قانون جامع هوش مصنوعی در جهان، تنظیم شده است. اتحادیه اروپا به‌عنوان بخشی از استراتژی دیجیتال خود می‌خواهد هوش مصنوعی را تنظیم‌گری کند تا شرایط بهتری را برای توسعه و استفاده از این فناوری نوآورانه تضمین کند.

مجموعه قوانین AI Act، به دنبال توسعه ایمن هوش مصنوعی است و بر خطرات مرتبط با کاربست چنین فناوری‌ای تأکید می‌کند. اتحادیه اروپا در آوریل سال 2021 پیش‌نویس قانون هوش مصنوعی (AI Act) را ارائه کرد. این قانون، اولین تلاش جامع در سطح جهانی برای تنظیم‌گری هوش مصنوعی بوده و هدف آن اطمینان از ایمنی و احترام به حقوق اساسی افراد است. این قانون با هدف تقویت زیرساخت‌های یک‌‌ زیست‌بوم قابل اعتماد برای توسعه هوش مصنوعی مسئول، طراحی و تصویب شده است. این چارچوب باید تضمین کند که سامانه‌های هوش مصنوعی داخل اتحادیه اروپا با امنیت و رعایت قوانین موجود در مورد حقوق اساسی و ارزش‌های اتحادیه سازگار باشند؛ همچنین تضمین حقوقی را برای تسهیل سرمایه‌گذاری و نوآوری در زمینه هوش مصنوعی فراهم کند. قانون AI Act، از ۱۲ محور اصلی تشکیل شده که به‌شرح زیر است:

جدول 2. مؤلفه‌های اصلی AIACT  [36]

عناوین

شرح

موضوع و محدوده

این مورد، محدوده اعمال قوانین جدید را مشخص می‌کند و عرضه در بازار، راه‌‌‌‌اندازی و استفاده از سیستم‌های هوش مصنوعی را پوشش می‌دهد.

لیست انواع هوش مصنوعی ممنوعه

تمام سامانه‌های مبتنی‌بر هوش مصنوعی را فهرست کرده و توصیف می‌کند که برای مثال با نقض برخی از حقوق اساسی، به‌عنوان ناقض ارزش‌های اتحادیه اروپا، غیرقابل قبول تلقی می‌شوند.

سامانه‌های هوش مصنوعی پرخطر

حاوی قوانین خاصی برای سامانه‌هایی است که ریسک بالایی ایجاد می‌کنند. طبقه‌بندی یک سامانه هوش مصنوعی به‌عنوان پرخطر،‌ براساس هدف مورد نظر سامانه هوش مصنوعی است.

تعهدات شفافیت

درباره تعهدات شفافیت سامانه‌هایی است که مستقیماً با انسان‌ها تعامل دارند؛ که برای مواردی مانند تشخیص احساسات یا تعیین ارتباطات اجتماعی‌ براساس داده‌های بیومتریک یا تولید داده استفاده می‌شوند.

حمایت از نوآوری

به هدف ایجاد یک چارچوب قانونی که مانع نوآوری نمی‌شود کمک می‌کند.

سیستم‌های حکمرانی

·         تنظیم‌گری سامانه‌های حکمرانی، در سطح اتحادیه ملی و اروپا،

·         تسهیلگری در بحث نظارت کمیسیون اروپا و مقامات ملی،

·         تعیین تعهدات نظارت و گزارش برای ارائه‌دهندگان هوش مصنوعی.

تعهدات داوطلبانه

چارچوبی برای تشویق ارائه‌دهندگان سامانه‌های هوش مصنوعی غیرخطرناک به‌منظور اعمال داوطلبانه الزامات سیستم‌های پرخطر.

جریمه‌ها، به‌روز‌رسانی‌‌‌ها، تفویض قدرت

·         قوانینی را برای تبادل اطلاعات به‌دست آمده تعیین می‌کند.

·         قوانینی را برای اعمال تفویض اختیارات و اختیارات اجرایی تعیین می‌کند.

·         اینکه شامل تعهدی برای کمیسیون اروپا برای ارزیابی منظم نیاز به به‌روزرسانی و تهیه گزارش‌های منظم در مورد ارزیابی و بازنگری مقررات است.

ماخذ: پارلمان اروپا، 2023.

۵-۲. آمریکا

دفتر سیاست علم و فناوری کاخ سفید در زمان‌ رئیس‌جمهور اسبق باراک اوباما مجموعه‌ای از کارگاه‌های آموزشی در مورد هوش مصنوعی برگزار کرد که منجر به انتشار دو مقاله در سال 2016 شد: «برنامه استراتژیک تحقیق و توسعه هوش مصنوعی ملی» و «آماده‌سازی برای آینده هوش مصنوعی».  

  • برنامه استراتژیک تحقیق و توسعه هوش مصنوعی ملی آمریکا
  • هدف:

هدف از برنامه استراتژیک تحقیق و توسعه ملی هوش مصنوعی، هدایت سرمایه‌‌گذاری در تحقیق و توسعه هوش مصنوعی است تا اطمینان حاصل شود که آمریکا در این زمینه یک رهبر جهانی باقی می‌ماند. این سند بر روی تحقیقات بلندمدت هوش مصنوعی تمرکز دارد که ممکن است فوراً برای صنعت سودآور نباشد و بنابراین نیاز به حمایت دولت دارد.

  • مباحث کلیدی:

این طرح، هفت اولویت استراتژیک را برای تحقیقات هوش مصنوعی با بودجه فدرال ترسیم می‌کند:

  1. سرمایه‌‌گذاری بلندمدت در تحقیقات هوش مصنوعی: سرمایه‌‌گذاری مستمر در تحقیقات اساسی هوش مصنوعی برای ایجاد پیشرفت‌های آینده،
  2. همکاری انسان و هوش مصنوعی: توسعه سیستم‌های هوش مصنوعی که به‌جای جایگزینی انسان‌ها، به‌طور مؤثر با انسان‌ها همکاری می‌کنند،
  3. پیامدهای اخلاقی، حقوقی و اجتماعی: درک و رسیدگی به خطرات بالقوه هوش مصنوعی و همسویی توسعه هوش مصنوعی با ارزش‌های اجتماعی،
  4. ایمنی و امنیت هوش مصنوعی: تضمین ایمنی و قابل اعتماد بودن سیستم‌های هوش مصنوعی قبل از اینکه به‌طور گسترده به‌کار گرفته شوند،
  5. دیتابیس‌های اشتراکی عمومی: ایجاد مجموعه داده‌ها و محیط‌های آزمایشی با کیفیت بالا و در دسترس برای پیشبرد تحقیقات هوش مصنوعی،
  6. استانداردها و شاخص های هوش مصنوعی: توسعه شاخص‌هایی برای ارزیابی پیشرفت هوش مصنوعی و هدایت مسیرهای تحقیقاتی،
  7. نیروی کار ملی تحقیق و توسعه هوش مصنوعی: ایجاد و حفظ نیروی کار تحقیقاتی قوی هوش مصنوعی برای رسیدگی به چالش‌های ذکرشده در طرح.
  • نتایج مورد انتظار:
  • ایجاد شکوفایی اقتصادی،
  • بهبود کیفیت زندگی و آموزش،
  • ارتقای امنیت ملی و داخلی.
  • سند آماده‌سازی برای آینده هوش مصنوعی آمریکا

این سند که توسط شورای ملی علم و فناوری (NSTC) تهیه شده، مزایا و خطرات بالقوه فناوری‌های هوش مصنوعی (AI) را تشریح کرده و توصیه‌هایی را برای دولت آمریکا پیشنهاد می‌کند. همچنین پیشنهادهایی برای آمادگی در برابر نقش مهمی که هوش مصنوعی در آینده ایفا می‌کند، ارائه کرده است. این سند، چندین مزیت بالقوه هوش مصنوعی را برجسته می‌کند، ازجمله:

  • بهبود خدمات عمومی: هوش مصنوعی به‌طور بالقوه‌ می‌تواند کارایی خدمات دولتی را با خودکار کردن وظایف و فعال کردن تصمیم‌گیری مبتنی‌بر داده بهبود بخشد.
  • رشد اقتصادی: هوش مصنوعی پتانسیل بی‌نظیری در افزایش بهره‌وری و ایجاد فرصت‌های اقتصادی جدید دارد.
  • پیشرفت در حل چالش‌های اجتماعی: هوش مصنوعی می‌تواند برای مقابله با چالش‌های اجتماعی گوناگون مانند مراقبت‌های بهداشتی، آموزش عمومی و تغییرات آب و هوایی مورد استفاده بیشتری قرار گیرد.
  • خطرات بالقوه هوش مصنوعی:
  • جابه‌جایی شغل: خودکارسازی ناشی از کاربست هوش مصنوعی می‌تواند منجر به از دست دادن مشاغل در بخش‌های خاصی از نیروی کار شود.
  • جانبداری و انصاف: اگر سیستم‌های هوش مصنوعی به دقت طراحی و اجرا نشوند، می‌توانند تعصبات اجتماعی موجود را تداوم یا تقویت کنند.
  • ایمنی و امنیت: اطمینان از ایمنی و امنیت سیستم‌های مبتنی‌بر هوش مصنوعی،‌ به‌ویژه در برنامه‌های کاربردی عمومی، یک چالش حیاتی است.

این سند چندین توصیه به دولت آمریکا برای رسیدگی به خطرات و فرصت‌های بالقوه هوش مصنوعی ارائه می‌کند، ازجمله:

  • سرمایه‌‌گذاری در تحقیق و توسعه هوش مصنوعی،
  • توسعه نیروی کار ماهر،
  • رسیدگی به نگرانی‌های اخلاقی،
  • ترویج همکاری بین‌المللی.

به‌طورکلی، این سند بر اهمیت آماده‌سازی برای آینده هوش مصنوعی به‌گونه‌ای تأکید می‌کند که مزایای بالقوه آن را به حداکثر برساند و خطرات بالقوه آن را کاهش دهد.

5-3. چین

در چند سال گذشته، چین قوانین و مقررات ملی الزام‌آوری را در مورد هوش مصنوعی (AI) وضع کرده است. این مقررات، توصیه‌هایی را نیز در جهت تنظیم‌گری انتشار محتوا (اعم از متون، تصاویر و ویدئوهای تولید شده مصنوعی و سیستم‌های هوش مصنوعی مانند چت جی‌پی‌تی) ارائه می‌کنند. این قوانین، الزامات جدیدی را برای نحوه ساخت و استقرار الگوریتم‌ها و همچنین برای اطلاعاتی که توسعه‌دهندگان هوش مصنوعی باید برای دولت و مردم افشا کنند، ایجاد می‌کند. این اقدامات، زمینه‌های فکری و بوروکراتیک را برای یک قانون جامع ملی هوش مصنوعی ایجاد می‌کند که چین احتمالاً در سال‌های آینده منتشر خواهد کرد که احتمالاً یک پیشرفت بالقوه مهم برای حکمرانی جهانی هوش مصنوعی خواهد بود.

  • مقررات کلیدی:
  • الگوریتم‌های توصیه‌گر (2021): این مقررات، الگوریتم‌هایی را که برای انتشار محتوا به‌صورت آنلاین استفاده می‌شوند، هدف قرار می‌دهند و الزاماتی را برای شفافیت، کنترل کاربر و حفاظت از اطلاعات، مشمول مدیریت الگوریتمی می‌دانند.
  • سنتز عمیق یا ترکیب‌بندی عمیقDeep Synthesis  (2022): این مقررات بر محتوای تولید شده مصنوعی (برای مثال دیپ فیک) تمرکز دارد که برای شناسایی چنین محتوایی نیاز به برچسب زدن واضح دارد.
  • هوش مصنوعی مولد (پیش‌نویس ۲۰۲۳): این پیش‌نویس مقررات به سیستم‌هایی مانند ChatGPT می‌پردازد و الزام می‌کند که داده‌های آموزشی و خروجی‌های مدل‌های زبانی، «درست و دقیق» باشند. همچنین یک سیستم رجیستری دولتی برای الگوریتم‌ها معرفی می‌کند.
  • انگیزه‌ها:
  • کنترل اطلاعات: هدف اصلی این مقررات تقویت کنترل دولت چین بر اطلاعات آنلاین است.
  • ثبات اجتماعی: از اهداف این مقررات کاهش خطرات بالقوه برای ثبات اجتماعی، مانند انتشار اطلاعات نادرست یا محتوای مضر است.
  • توسعه اقتصادی: چین به دنبال تقویت توسعه مسئولانه صنعت هوش مصنوعی داخلی خود و درعین‌حال شکل دادن به حکمرانی جهانی هوش مصنوعی است.
  • نظام بوروکراتیک حکمرانی هوش مصنوعی چین:
  • اداره فضای سایبری چین: CAC این اداره نقش پیشرو در تهیه پیش‌نویس مقررات هوش مصنوعی ایفا می‌کند که نشان‌دهنده تمرکز آن بر کنترل محتوای آنلاین است.
  • وزارت علوم و فناوری: MOST این وزارتخانه به‌طور فزاینده‌ای در مدیریت هوش مصنوعی درگیر می‌شود،‌ به‌ویژه با تغییر تمرکز به سمت تنظیم‌گری تحقیقات زیربنایی هوش مصنوعی.
  • اندیشکده‌ها و محققان: مؤسساتی مانند آکادمی فناوری ارتباطات اطلاعات چین و مؤسسه مدیریت بین‌المللی هوش مصنوعی دانشگاه Tsinghua به شکل‌دهی چشم‌انداز فکری حکمرانی هوش مصنوعی چین کمک می‌کنند.

5-4. هند

دولت فدرال هند، در ژوئن سال 2018 یک استراتژی ملی هوش مصنوعی را به تصویب رساند که الزام می‌کند که یک مرکز مطالعاتی در زمینه پایداری فناوری برای رسیدگی به مسائل مربوط به اخلاق، حریم خصوصی و موارد دیگر راه‌اندازی شود. استراتژی ملی هند برای حکمرانی هوش مصنوعی با تأکید بر مفهوم «هوش مصنوعی برای همه» به دنبال هدایت مسیر توسعه و پذیرش هوش مصنوعی در کشور است. هدف این سند راهبردی استفاده از هوش مصنوعی برای رشد فراگیر و در ادامه نیز قرار دادن هند به‌عنوان یک بازیگر جهانی در بحث حکمرانی هوش مصنوعی است. این سند، پنج بخش دارای اولویت را (که هوش مصنوعی در آن دارای پتانسیل تأثیر اجتماعی و اقتصادی‌ قابل‌توجهی در هند است) مورد هدف قرار داده است:

  • مراقبت‌های بهداشتی: افزایش دسترسی به مراقبت‌های بهداشتی مقرون‌به‌صرفه،‌ به‌ویژه در مناطق دور افتاده و بهبود تشخیص و درمان بیماری،
  • کشاورزی: ‌افزایش بازده محصولات، بهبود استفاده از منابع و تضمین رشد درآمد کشاورزان،
  • آموزش: ارائه تجربیات یادگیری شخصی، پر کردن شکاف کیفیت و بهبود دسترسی به آموزش،‌ به‌ویژه در مناطق محروم،
  • شهرها و زیرساخت‌های هوشمند: پرداختن به چالش‌های شهرنشینی، از طریق مدیریت کارآمد ترافیک، دفع زباله و بهینه‌سازی منابع،
  • تحرک و حمل‌و‌نقل هوشمند: توسعه سیستم‌های حمل‌و‌نقل ایمن‌تر، کارآمدتر و کاهش ازدحام.
  • چالش‌های پذیرش هوش مصنوعی در هند:
  • فقدان تخصص هوش مصنوعی: سرمایه انسانی محدود در تحقیق و توسعه هوش مصنوعی اصلی و کاربردی،
  • دسترسی به داده‌ها: عدم وجود مجموعه داده‌های ساختار یافته و با کیفیت بالا و مکانیسم‌هایی برای به اشتراک‌‌گذاری امن داده‌ها،
  • هزینه‌های بالای منابع: محدودیت‌های مالی و شکاف‌هایی در حوزه آگاهی از فناوری، مانع پذیرش هوش مصنوعی می‌شود،
  • حریم خصوصی و امنیت: نگرانی در مورد حریم خصوصی داده‌ها و سوء‌استفاده احتمالی از فناوری‌های هوش مصنوعی،
  • همکاری: نیاز به مشارکت قوی‌تر بین دانشگاه، صنعت و دولت برای هدایت نوآوری هوش مصنوعی.

۵-۵. سنگاپور

دولت فدرال سنگاپور، چارچوبی برای حکمرانی هوش مصنوعی در ژانویه سال 2019 منتشر کرد و راهنمایی‌هایی را به بخش خصوصی در مورد چگونگی رسیدگی به مسائل اخلاقی ناشی از استفاده از هوش مصنوعی ارائه داد. هدف سند استراتژی ملی هوش مصنوعی سنگاپور، تبدیل این کشور به‌عنوان یک بازیگر جهانی در توسعه و استقرار راه‌حل‌های هوش مصنوعی است. این استراتژی بر رویکرد‌های کلان کل کشور تأثیر دارد و به دنبال تغییر اقتصاد، جامعه و دولت سنگاپور از طریق پذیرش هوش مصنوعی است.

  • چشم‌انداز سند:
  1. سنگاپور به یک مرکز جهانی برای توسعه، آزمایش، استقرار و مقیاس‌بندی راه‌حل‌های هوش مصنوعی، ازجمله رسیدگی به چالش‌های حکمرانی هوش مصنوعی تبدیل شود،
  2. هوش مصنوعی برای ایجاد ارزش اقتصادی و بهبود زندگی شهروندان سنگاپور استفاده شود،
  3. سنگاپوری‌ها به مهارت‌های لازم هوش مصنوعی مجهز شوند و مزایای بالقوه هوش مصنوعی را درک کنند.
  • پروژه‌های ملی هوش مصنوعی (برای هدایت پذیرش هوش مصنوعی و نشان دادن پتانسیل تحول‌آفرین):
  1. برنامه‌ریزی هوشمند حمل‌ونقل: بهینه‌سازی جابجایی بار برای بهبود کارایی و کاهش تراکم ترافیک،
  2. خدمات شهری یکپارچه و کارآمد: افزایش پاسخ‌گویی و قابلیت اطمینان خدمات شهری یه کمک هوش مصنوعی،
  3. پیش‌بینی و مدیریت بیماری‌ها: استفاده از هوش مصنوعی برای پیشگیری و مدیریت بهتر بیماری‌های همه‌گیر،
  4. آموزش شخصی شده از طریق یادگیری و ارزیابی تطبیقی: شخصی‌سازی تجربیات یادگیری و بهبود نتایج آموزشی،
  5. عملیات پاکسازی و امنیت مرزها: تقویت امنیت مرزی و درعین‌حال، بهبود تجربه مسافران.

 5-6. جمع‌بندی

جدول زیر خلاصه‌ای از رویکردهای کلیدی، فعالیت‌ها و قواعد اصلی و اهداف و نتایج مورد انتظار از حکمرانی هوش مصنوعی در پنج کشور/ منطقه مختلف را نشان می‌دهد. هر کشور/ منطقه با توجه به نیازها و اولویت‌های خود، رویکردها و مقررات متفاوتی را برای مدیریت و استفاده مسئولانه از هوش مصنوعی اتخاذ کرده است.

جدول 3. جمع‌بندی وضعیت کنونی حکمرانی هوش مصنوعی در جهان

کشور/منطقه

رویکرد حکمرانی هوش مصنوعی

فعالیت‌ها و قواعد کلیدی

اهداف و نتایج مورد انتظار

نقاط قوت و ضعف

اتحادیه اروپا

  •  پیشرو در تنظیم‌گری جامع هوش مصنوعی،
  •  تأکید بر ایمنی و حقوق اساسی،
  •  ایجاد یک چارچوب قانونی برای نوآوری و مسئولیت‌پذیری
  • GDPR(2018): مقررات عمومی حفاظت از داده‌ها،
  •  AI ACT(2021): اولین قانون جامع هوش مصنوعی در جهان،
  •  تعیین مقررات برای هوش مصنوعی پرخطر، تعهدات شفافیت، حمایت از نوآوری و سیستم‌های حکمرانی
  •  اطمینان از ایمنی و رعایت حقوق اساسی،
  •  تقویت زیرساخت‌های قانونی برای نوآوری و سرمایه‌گذاری،
  •  ایجاد یک‌ زیست‌بوم قابل اعتماد برای توسعه هوش مصنوعی

نقاط قوت: چارچوب قانونی جامع و جهانی برای هوش مصنوعی، تمرکز بر حقوق اساسی و ایمنی، پیشرو در تدوین مقررات.
نقاط ضعف: فرایندهای پیچیده بوروکراتیک که ممکن است نوآوری را کُندتر کند، هزینه‌های بالای پیاده‌سازی و پایبندی به قوانین برای کسب‌وکارها.

آمریکا

  •  تمرکز بر تحقیق و توسعه بلندمدت،
  • تأکید بر همکاری انسان و هوش مصنوعی،
  •  توجه به پیامدهای اخلاقی و اجتماعی.
  •  سند استراتژیک تحقیق و توسعه هوش مصنوعی ملی(2016): هدایت سرمایه‌گذاری در تحقیق و توسعه هوش مصنوعی،
  •  آماده‌سازی برای آینده هوش مصنوعی: تشریح مزایا و خطرات بالقوه هوش مصنوعی و توصیه‌هایی به دولت برای آماده‌سازی.
  •  ایجاد شکوفایی اقتصادی و بهبود کیفیت زندگی،
  •  تقویت امنیت ملی و داخلی،
  •  افزایش بهره‌وری و ایجاد فرصت‌های اقتصادی جدید.

نقاط قوت: رهبری در تحقیق و توسعه، تمرکز بر نوآوری و رشد اقتصادی، همکاری با بخش خصوصی برای توسعه فناوری.
نقاط ضعف: عدم وجود چارچوب قانونی جامع و الزام‌آور، کُندی در تنظیم‌گری نسبت به سرعت پیشرفت فناوری، وابستگی به شرکت‌های بزرگ فناوری.

چین

  •  تنظیم‌گری دقیق با تأکید بر کنترل اطلاعات و ثبات اجتماعی،
  •  تدوین مقررات برای الگوریتم‌ها و محتوای تولید شده مصنوعی.
  •  مقررات الگوریتم‌های توصیه‌گر: الزامات شفافیت و حفاظت از اطلاعات،
  •  سنتز عمیق (2022): مقررات برای محتوای تولید شده مصنوعی مانند دیپ فیک،
  •  هوش مصنوعی مولد(2023): الزام به دقت و صحت داده‌های آموزشی و خروجی‌های مدل‌های زبانی.
  • کنترل اطلاعات و کاهش خطرات برای ثبات اجتماعی،
  •  تقویت توسعه مسئولانه صنعت هوش مصنوعی داخلی،
  • شکل‌دهی حکمرانی جهانی هوش مصنوعی

نقاط قوت: توانایی در تنظیم‌گری سریع و دقیق، کنترل قوی بر اطلاعات و محتوا، توسعه سریع صنعت هوش مصنوعی داخلی.
نقاط ضعف: محدودیت‌های ناشی از کنترل شدید دولت، نگرانی‌های مربوط به حقوق بشر و حریم خصوصی، ریسک کاهش نوآوری‌ به‌دلیل قوانین سختگیرانه.

هند

  •  تأکید بر مفهوم «هوش مصنوعی برای همه»،
  •  استفاده از هوش مصنوعی برای رشد فراگیر و توسعه پایدار.
  •  استراتژی ملی هوش مصنوعی (2018): راه‌اندازی مرکز مطالعاتی برای مسائل اخلاقی و حریم خصوصی،
  •  هدف‌گذاری در حوزه‌های اولویت‌دار مانند بهداشت، کشاورزی، آموزش، شهرها و زیرساخت‌های هوشمند و حمل‌ونقل.
  •  افزایش دسترسی به خدمات بهداشتی و آموزشی،
  •  بهبود بازده کشاورزی و مدیریت منابع،
  •  توسعه سیستم‌های حمل‌و‌نقل ایمن‌تر و کارآمدتر.

نقاط قوت: مرکز بر استفاده گسترده و اجتماعی از هوش مصنوعی، تلاش برای رشد فراگیر و کاهش نابرابری‌ها، توسعه نیروی کار متخصص.
نقاط ضعف: کمبود زیرساخت‌های داده و منابع مالی، محدودیت‌های آموزشی‌ و تخصصی، چالش‌های حریم خصوصی و امنیت داده‌ها.

 

 

سنگاپور

  •  ایجاد چارچوبی برای حکمرانی هوش مصنوعی با تأکید بر مسائل اخلاقی،
  •  تبدیل شدن به یک مرکز جهانی برای توسعه و استقرار راه‌حل‌های هوش مصنوعی
  •  چارچوب حکمرانی هوش مصنوعی (2019): ارائه راهنمایی به بخش خصوصی برای رسیدگی به مسائل اخلاقی،
  •  پروژه‌های ملی هوش مصنوعی برای بهینه‌سازی‌ حمل‌ونقل، خدمات شهری، پیش‌بینی بیماری‌ها،آموزش شخصی‌سازی شده و تقویت امنیت مرزی.
  •  بهینه‌سازی جابه‌جایی بار و کاهش تراکم ترافیک،
  •  بهبود مدیریت بیماری‌ها و تجربیات یادگیری،
  •  تقویت امنیت مرزی و افزایش بهره‌وری در خدمات شهری.

نقاط قوت: رویکرد پیشرفته و جامع به حکمرانی هوش مصنوعی، تمرکز بر آموزش و آگاهی‌بخشی، زیرساخت‌های قوی دیجیتال.
نقاط ضعف: محدودیت در مقیاس و منابع، نیاز به همکاری بین‌المللی برای گسترش و توسعه بیشتر، وابستگی به فناوری‌های خارجی برای برخی از بخش‌های کلیدی.

 

6.نگاهی آماری به‌مقوله حکمرانی هوش مصنوعی در جهان

در این بخش، پس از بررسی تعدادی از مهم‌ترین بازیگران و فعالان حوزه حکمرانی هوش مصنوعی، در راستای تکمیل موردکاوی حکمرانی هوش مصنوعی در سطح جهانی، آمارهای بین‌المللی این حوزه به تفکیک‌های ذیل به نمایش درآمده است.

شاخص هوش مصنوعی دانشگاه استنفورد، تجزیه و تحلیلی از قوانین تصویب شده توسط نهادهای قانونگذاری در 127 کشور انجام داد که حاوی کلمه «هوش مصنوعی» از سال 2016 تا 2022 است. از 127 کشور مورد تجزیه‌وتحلیل، از سال 2016، 31 کشور حداقل یک لایحه در حوزه هوش مصنوعی به تصویب رسانه‌اند و مجموعاً 123 لایحه مربوط به هوش مصنوعی را تصویب کرده‌اند.

شکل زیر نشان می‌دهد که از سال 2016 تا 2022، تعداد کل لوایح مربوط به هوش مصنوعی افزایش شدیدی داشته شد و به 37 لایحه تصویب شده در سال 2022 رسیده است.

شکل 1. تعداد لوایح مربوط به هوش مصنوعی به تفکیک کشورها، 2022– 2016 [37]

 

 

 

 

 

شکل زیر نشان‌دهنده تعداد قوانینی هستند که در سال 2022 در مورد هوش مصنوعی به تصویب رسیدند. آمریکا با 9 قانون در صدر فهرست قرار گرفت و پس از آن اسپانیا و فیلیپین که به ترتیب 5 و 4 قانون تصویب کردند.

شکل 2. نمودار تعداد لوایح مربوط به هوش مصنوعی که در کشورهای منتخب به تصویب رسیده است، 2016-2022 [37]

 

 

 

 

جدول زیر مؤلفه‌هایی از حکمرانی هوش مصنوعی را در کشورهای مختلف بررسی کرده است.

 جدول 4: حکمرانی هوش مصنوعی در چند کشور منتخب در سال 2022 [37]

کشور

نام لایحه

تشریح

جمهوری قرقیزستان

درباره پارک صنایع خلاق

این سند، وضعیت قانونی، مدیریت و رویه‌های عملیاتی پارک صنایع خلاق را تعیین می‌کند که برای تسریع توسعه صنایع خلاق ازجمله هوش مصنوعی ایجاد شده است.

لتونی

اصلاحات قانون امنیت ملی

مفاد این قانون، محدودیت‌هایی را برای شرکت‌های تجاری، انجمن‌ها و بنیادهای مهم برای امنیت ملی، ازجمله یک شرکت تجاری که هوش مصنوعی را توسعه می‌دهد، ایجاد می‌کند.

فیلیپین

قانون کمیسیون دوم کنگره در مورد آموزش

کنگره طبق مفاد این قانون، یک کمیسیون خاص برای بررسی، ارزیابی و ارزیابی وضعیت آموزش فیلیپین ایجاد‌‌ می‌کند. این قانون خواستار اصلاحاتی برای مقابله با چالش‌های جدید آموزش و پرورش ناشی از انقلاب صنعتی چهارم است که تا حدی با توسعه سریع هوش مصنوعی مشخص می‌شود.

چالش‌های استفاده از هوش مصنوعی در آموزش در فیلیپین شامل موارد زیر است:

  •        نیاز به یک زیرساخت فناورانه قوی و منابع محاسباتی کافی همسو با چارچوب‌های خط‌مشی کلان ملی،
  •         رسیدگی به نگرانی‌های مربوط به حریم خصوصی داده‌ها،
  •        شکاف دیجیتال،
  •         نیاز به آموزش و توسعه مستمر اساتید.

اسپانیا

حق رفتار برابر و عدم تبعیض

یک مفاد این قانون مقرر می‌دارد که الگوریتم‌های هوش مصنوعی درگیر در تصمیم‌گیری‌های ادارات دولتی، هر زمان که از نظر فنی امکان‌پذیر باشد، معیارهای به حداقل رساندن سوگیری، شفافیت و پاسخ‌گویی را در نظر می‌گیرند.

آمریکا

قانون آموزش هوش مصنوعی

این لایحه، اداره مدیریت و بودجه را ملزم می‌کند تا یک برنامه آموزشی مختص هوش مصنوعی برای جذب نیروی کار سازمان‌های اجرایی (برای مثال، کسانی که مسئول مدیریت برنامه یا تدارکات هستند)، را طراحی کند. هدف از این برنامه این است که اطمینان حاصل شود که نیروی کار، از توانایی ها و خطرات مرتبط با هوش مصنوعی آگاهی دارد.

شکل زیر تعداد کل موارد ذکر شده «هوش مصنوعی» در رویه‌های قانونی کشورها در هفت سال گذشته را نشان می‌دهد. از 81 کشور در نظر گرفته شده، 62 کشور حداقل یک بار از لفظ «هوش مصنوعی» استفاده کرده‌اند و بریتانیا با 1092 بار استفاده، بر این لیست غالب است و پس از آن اسپانیا (832)، آمریکا (626)، ژاپن (511) و هنگ کنگ (478) قرار دارند.

شکل 3. تعداد ذکر کلمات «هوش مصنوعی» در رویه‌های قانونی به تفکیک کشور، 2022- 2016(همان)

 

 

 

 

شکل 4: کشورهای دارای سندهای راهبردی حکمرانی هوش مصنوعی (همان)

 

 

 

 

7.الزامات طراحی مدل حکمرانی هوش مصنوعی

در این بخش، پس از مطالعه مفهوم حکمرانی هوش مصنوعی و موردکاوی آن، با توجه به اهمیت و لزوم وجود رویکرد بومی و منطقه‌ای به حکمرانی هوش مصنوعی، به بررسی الزامات طراحی مدل حکمرانی هوش مصنوعی بررسی شده است.

هنگام بررسی مدل‌های حکمرانی هوش مصنوعی با رویکردی آینده‌نگر که به موضوعاتی مانند عدالت، امنیت، حریم خصوصی، جابه‌جایی نیروی کار و مالیات می‌پردازند، لازم است فراتر از این موضوعات رایج رفته و به چالش‌های ساختاری و الزامات مهم‌تری که در برخورد با فناوری‌های هوش مصنوعی وجود دارند، توجه کرد. در ادامه، سه چالش اساسی بررسی می‌شود که باید در طراحی مدل‌های حکمرانی هوش مصنوعی مدنظر قرار گیرند [11]. این سه چالش کلیدی در طراحی این مدل‌های حکمرانی بررسی می‌شود: عدم تقارن دانشی، یافتن اجماع هنجاری و عدم تطبیق‌‌پذیری دولت.

  • عدم تقارن دانشی: درحالی‌که هوش مصنوعی این ظرفیت را دارد که زندگی میلیاردها نفر را تغییر دهد، تنها تعداد کمی از متخصصان، تکنیک‌های اساسی را درک می‌کنند. سیستم‌های مبتنی‌بر هوش مصنوعی اغلب غیرقابل تشخیص هستند و گاهی اوقات منجر به عدم تقارن دانشی گسترده بین توسعه‌دهندگان این سیستم‌ها و سایر‌ ذی‌نفعان، ازجمله مصرف‌کنندگان و خط‌مشی‌گذاران می‌شود. یک سیستم حکمرانی مؤثر برای هوش مصنوعی باید مکانیسم‌هایی را با هدف بهبود درک جمعی ما از پدیده هوش مصنوعی در مظاهر مختلف و زمینه‌های کاربردی آن ارائه دهد.
  • یافتن اجماع هنجاری: بحث‌های سیاستی و حکمرانی فعلی عمدتاً بر روی خطرات و چالش‌های مرتبط با هوش مصنوعی متمرکز است، اما هوش مصنوعی همچنین مزایای بالقوه فوق‌العاده‌ای را برای جامعه ارائه می‌دهد. یک مدل حکمرانی باید فضاهایی را برای تجزیه‌وتحلیل هزینه-فایده و ایجاد اجماع هنجاری در بین ‌ذی‌نفعان مختلف باز کند،‌ به‌ویژه در مواردی که مبادلات در طراحی سیستم‌های هوش مصنوعی دخیل هستند. یک مدل حکمرانی مطلوب همچنین باید با تفاوت‌های هنجاری بین زمینه‌ها و جغرافیاها سروکار داشته باشد و قابلیت همکاری بین چارچوب‌ها و رویکردهای مختلف را فراهم کند[13].
  • عدم تطابق دولت: حتی در مواردی که درک مشترکی از فناوری‌های هوش مصنوعی، تکنیک‌های اساسی و اجماع اجتماعی در مورد آنچه مطلوب است یا نیست، وجود دارد، طراحی ابزار مؤثر، کارآمد و مشروع (استراتژی‌ها، رویکردها، ابزارها و غیره) برای حل‌وفصل مسائل اساسی ذکر شده با توجه به شرایط عدم قطعیت و پیچیدگی در اکوسیستم هوش مصنوعی، چالش‌برانگیز است [14].

در میان تمام بازیگران، توجه به این نکته حائز اهمیت است که هر مدل نوظهوری باید در چارچوب‌های نهادی موجود قوانین و سیاست‌های قابل اجرا، به‌ویژه قانون اساسی، سیاست‌های کلی و یا حتی حقوق اساسی و ارزش‌های سازگار با قانون اساسی قرار گیرد و با آن تعامل داشته باشد. زیرا توسعه و استقرار حکمرانی هوش مصنوعی در خلأ صورت نمی‌گیرد[15]. پس از بررسی چالش‌ها، به سراغ مطالعه یکی از مدل‌های قابل‌توجه حکمرانی هوش مصنوعی، یعنی «مدل لایه‌ای» می‌رویم که توسط دانشمندان دانشگاه هاروارد در سال 2017 مطرح شده است.

7-1. مدل لایه‌ای حکمرانی هوش مصنوعی

مقیاس، ناهمگونی، پیچیدگی و میزان استقلال تکنولوژیک سیستم‌های هوش مصنوعی نیازمند تفکر جدیدی در مورد سیاست، قانون و مقررات است. گسر و آلمیدا، در مقاله‌ای مدل لایه‌ای حکمرانی هوش مصنوعی را ارائه و تلاش کرده‌‌اند ماهیت پیچیده حکمرانی هوش مصنوعی را با استفاده از یک مدل تحلیلی با سه لایه به تصویر بکشد.

لایه‌های تعاملی از بالا به پایین، به‌شرح زیر است:

  • اجتماعی و حقوقی،
  • اخلاقی،
  • مبانی فنی که از لایه‌های اخلاقی و اجتماعی حمایت می‌کنند.

شکل 5:مدل لایه‌ای برای حکمرانی هوش مصنوعی [42]

 

 

 

 

شکل 5، نمایشی از مدل حکمرانی لایه‌ای را نشان می‌دهد. ابزارهای ترسیم شده روی لایه‌ها، به تناسب هر بازه زمانی قابل توسعه هستند. در کوتاه‌مدت، پیشنهادهای حاکمیتی‌ می‌تواند بر توسعه استانداردها و اصول الگوریتم‌های هوش مصنوعی متمرکز شود. در میان‌مدت و بلندمدت، دولت‌ها می‌توانند روی قوانین خاصی برای تنظیم تعامل ‌ذی‌نفعان حوزه هوش مصنوعی کار کنند. این مدل می‌تواند یک اکتشاف مفید باشد که نشان می‌دهد چگونه اصول، خط‌مشی‌ها، هنجارها و قوانین در پاسخ به چالش‌ها و فرصت‌های مبتنی‌بر هوش مصنوعی می‌توانند ترکیب شوند و با هم در لایه‌های مختلف کار کنند.

  • لایه فنی، الگوریتم و داده

لایه فنی، اساس اکوسیستم حکمرانی هوش مصنوعی را تشکیل می‌دهد. سیستم‌های مبتنی‌بر هوش مصنوعی و سیستم‌های خودکار چه فیزیکی باشند مانند خودروهای خودران و روبات‌های صنعتی و چه نرم‌افزاری مانند سیستم‌های عدالت کیفری، تشخیص پزشکی یا دستیاران هوشمند، به داده‌ها و الگوریتم‌ها وابسته هستند [16]. برای الگوریتم‌هایی که تأثیرات اجتماعی دارند، اصولی مانند مسئولیت‌پذیری، قابلیت توضیح، دقت، قابلیت حسابرسی و انصاف پیشنهاد شده‌اند [17]. همچنین‌ فرایند جمع‌آوری، استفاده و مدیریت داده‌ها توسط این الگوریتم‌ها که به‌عنوان حکمرانی داده شناخته می‌شود، باید‌ براساس اصولی باشد که عدالت را تقویت کند و از تبعیض‌ براساس نژاد، رنگ، ملیت، مذهب، جنسیت، ناتوانی یا وضعیت خانوادگی جلوگیری کند.

  •  لایه اخلاقی

 در بالای لایه فنی، می توان به نگرانیهای اخلاقی پرداخت که برای انواع برنامه ها و سیستم های هوش مصنوعی اعمال می شود. یکی از منابع مهم برای توسعه چنین اصول اخلاقی، اصول مشترکی است که در قوانین بین المللی و ملی به آنها تصریح شده است.

نمونه دیگری از ظهور هنجارهای اخلاق هوش مصنوعی، اصول کلی انجمن مهندسان برق و الکترونیک (IEEE) برای هوش مصنوعی و سیستمهای مستقل است[16].

اقدامات الگوریتم‌ها را می‌توان‌ براساس معیارها و اصول اخلاقی مورد ارزیابی قرار داد. برای مثال اگر یک برنامه هوش مصنوعی داده‌های یک شرکت بیمه را تحلیل کرده و از گروه خاصی از افراد،‌ براساس عواملی مانند جنسیت یا سن، حق بیمه بیشتری را به تبعیض دریافت کند، چنین تصمیم‌گیری‌ای برخلاف اصل اخلاقی رفتار برابر و منصفانه است.

  • لایه جامعه و قانون (اجتماعی و حقوقی)

لایه اجتماعی و قانونی می‌تواند به‌ فرایند ایجاد نهادها و تخصیص مسئولیت‌ها برای تنظیم سیستم‌های هوش مصنوعی و خودمختار بپردازد. برای مثال، متیو شرر[17] یک نهاد سیاستگذاری را توصیف می‌کند که قدرت تعریف هوش مصنوعی را دارد، استثناهایی ایجاد می‌کند که اجازه می‌دهد تحقیقات هوش مصنوعی در محیط‌های خاصی بدون مسئولیت دقیق محققان انجام شود و‌ فرایند صدور گواهی هوش مصنوعی را ایجاد کند. یک نقطه شروع برای هنجارهای خاص با هدف تنظیم هوش مصنوعی، می‌تواند اصول و معیارهایی باشد که از لایه‌های اخلاقی و فنی، علاوه‌بر چارچوب‌های قانونی ملی و بین‌المللی از قبل موجود و کلی‌تر، بیرون می‌آیند.

پیاده‌سازی ساختارهای حاکمیتی برای هوش مصنوعی و سیستم‌های تصمیم‌‌‌‌‌گیری الگوریتمی می‌تواند در چندین لایه رخ دهد و شامل رویکردهای ترکیبی باشد. فرایندهای حکمرانی می‌تواند از راه‌حل‌های بازارمحور تا ساختارهای مبتنی‌بر دولت متغیر باشد و می‌تواند در سطح ملی یا بین‌المللی اعمال شود. در سطح منطقه‌ای، یک نمونه مناسب، مقررات عمومی حفاظت از داده‌ها (GDPR) است؛ یک مقررات گسترده و پیچیده با هدف تقویت و یکسان‌سازی حفاظت از داده‌ها برای همه افراد در اتحادیه اروپا. این قانون یک «حق توضیح» ارائه می‌کند که شرکت‌ها را موظف می‌کند که هدف یک الگوریتم و نوع داده‌هایی را که هنگام تصمیم‌گیری خودکار استفاده می‌کند، توضیح دهند[18].

در زمینه مسائل حقوقی یکی از چالش‌های عمده کشور، عدم وجود کلیدواژه‌های تخصصی فارسی ناظر به مفاهیم فنی- حقوقی است. این مسئله هرگونه الگوبرداری از قوانین سایر کشورها و قانونگذاری تخصصی در این حوزه را با مشکل و ابهام مواجه خواهد کرد. برای مثال بسیاری از واژگان تخصصی قانون اقدام هوش مصنوعی اتحادیه اروپا مبتنی‌بر تاصطلاحاتی است که پیش از آن در قوانین قبلی آنها ازجمله مقررات عمومی حفاظت از داده‌ها تولید شده است و متأسفانه هیچ قانونی در ایران این‌گونه مفاهیم را پوشش نداده است. این مسئله می‌تواند حتی پس از قانونگذاری، به چالشی برای نهادهای داوری و قضایی تبدیل شود و اعمال عدالت را تضعیف کند.

 

8.جمع بندی و توصیه‌های سیاستی

هوش مصنوعی به‌عنوان یکی از پیشرفته‌ترین و تحول‌سازترین فناوری‌های عصر حاضر، در حال ایجاد تغییرات بنیادین در بسیاری از جنبه‌های زندگی بشر است. این فناوری نه‌تنها می‌تواند بهره‌وری و کارایی را در حوزه‌های مختلف ازجمله صنعت، بهداشت، حمل‌ونقل و آموزش بهبود بخشد، بلکه فرصت‌های جدیدی را برای نوآوری، رشد اقتصادی و توسعه اجتماعی فراهم می‌آورد. بااین‌حال، گسترش هوش مصنوعی چالش‌های پیچیده‌ای را در زمینه‌های اخلاقی، قانونی، فرهنگی و اجتماعی به‌همراه دارد که نیازمند تدوین و اجرای چارچوب‌های حکمرانی مناسب برای مدیریت و نظارت بر این فناوری است. در این راستا، کشورها باید به‌طور فعال به طراحی، تدوین و پیاده‌سازی این چارچوب‌ها بپردازند تا بتوانند از مزایای هوش مصنوعی بهره‌برداری کرده و هم‌زمان با مدیریت مخاطرات آن، از اثرات منفی احتمالی آن جلوگیری کنند.

بررسی وضعیت کنونی حکمرانی هوش مصنوعی در جهان نشان می‌دهد که کشورهای مختلف رویکردهای متنوعی را برای پرداخت به این فناوری اتخاذ کرده‌اند. برای مثال، اتحادیه اروپا با تصویب قانون جامع هوش مصنوع (AI Act)، تلاش دارد تا یک چارچوب قانونی منسجم و قابل اجرا برای توسعه و استفاده مسئولانه از سیستم‌های هوش مصنوعی ایجاد کند. این قانون بر اهمیت تضمین ایمنی، شفافیت و احترام به حقوق اساسی افراد تأکید دارد و هدف آن فراهم‌سازی شرایطی برای توسعه پایدار و مسئولانه هوش مصنوعی است.

در آمریکا، رویکرد حکمرانی بیشتر بر تقویت تحقیق و توسعه و ایجاد نیروی کار ماهر متمرکز شده است. سند استراتژیک تحقیق و توسعه هوش مصنوعی ملی آمریکا، بر نیاز به تحقیقات بلندمدت و ایجاد اصول و استانداردهایی برای تضمین امنیت سیستم‌های هوش مصنوعی تأکید دارد. این سند، همچنین بر اهمیت آمادگی برای بهره‌برداری از فرصت‌های اقتصادی و مقابله با چالش‌های اخلاقی و اجتماعی ناشی از هوش مصنوعی تأکید می‌کند.

در آسیا، کشورهایی مانند چین و هند نیز در حال تدوین و اجرای برنامه‌های ملی هوش مصنوعی با تمرکز بر توسعه اقتصادی، اخلاق، حریم خصوصی و تدوین چارچوب‌هایی برای تنظیم‌گری هوش مصنوعی هستند. چین با وضع مقررات ملی الزام‌آور برای هوش مصنوعی، تلاش دارد تا نه‌تنها کنترل دقیق‌تری بر توسعه داخلی این فناوری داشته باشد، بلکه به‌طور فعال در تدوین استانداردهای جهانی برای حکمرانی هوش مصنوعی مشارکت کند. هند نیز با تأکید بر رویکرد «هوش مصنوعی برای همه»، به‌دنبال بهره‌گیری از پتانسیل هوش مصنوعی برای رشد فراگیر و توسعه پایدار آن در سطح ملی است.

این نمونه‌ها نشان می‌دهند که حکمرانی هوش مصنوعی یک مسئله جهانی و چندجانبه بوده که نیازمند همکاری و هماهنگی بین‌المللی برای تبادل دانش، تدوین استانداردهای مشترک و تقویت زیرساخت‌های نظارتی است. کشورها باید از تجربیات یکدیگر در زمینه حکمرانی هوش مصنوعی بهره‌برداری کرده تا بتوانند با چالش‌های مشابه به‌طور مؤثر مقابله کنند.

تدوین مدل‌های حکمرانی مؤثر برای هوش مصنوعی نیازمند توجه به چالش‌های ساختاری و الزامات اساسی در این حوزه است. یکی از چالش‌های اصلی در این زمینه، عدم تقارن دانشی میان توسعه‌دهندگان فناوری و سایر ذینفعان ازجمله خط‌مشی‌گذاران و مصرف‌کنندگان است. این عدم تقارن می‌تواند منجر به سوء‌تفاهم‌ها، کاهش اعتماد عمومی و مقاومت در برابر پذیرش فناوری‌های هوش مصنوعی شود. برای حل این مسئله، مدل‌های حکمرانی باید مکانیسم‌هایی را برای بهبود درک عمومی و افزایش آگاهی در مورد هوش مصنوعی و کاربردهای آن ارائه دهند.

چالش دیگر، یافتن اجماع هنجاری میان ‌ذی‌نفعان مختلف است. مدل‌های حکمرانی باید فضای لازم را برای تجزیه‌وتحلیل هزینه-فایده و ایجاد اجماع هنجاری میان ‌ذی‌نفعان فراهم کنند. این مدل‌ها باید بتوانند با تفاوت‌های فرهنگی، اجتماعی و جغرافیایی سازگاری داشته باشند و قابلیت همکاری بین چارچوب‌ها و رویکردهای مختلف را فراهم کنند.

‌علاوه‌بر این، عدم تطابق دولت‌ها با تغییرات سریع و پیچیدگی‌های فناوری‌های هوش مصنوعی یکی دیگر از موانع مهم است. دولت‌ها باید به‌سرعت بتوانند با تغییرات و نوآوری‌های جدید سازگار شوند و از چارچوب‌های تنظیم‌گری مناسب برای مدیریت این فناوری استفاده کنند. این امر نیازمند ایجاد زیرساخت‌های قانونی و نهادی است که بتواند با تحولات سریع در حوزه هوش مصنوعی همگام شود و پاسخ‌گوی نیازهای روزافزون جامعه باشد.

8-1. توصیه‌ها و پیشنهادهای سیاستی

با توجه به تحلیل‌های انجام‌شده و بررسی وضعیت کنونی حکمرانی هوش مصنوعی در جهان، چندین توصیه سیاستی برای بهبود حکمرانی هوش مصنوعی در کشور قابل ارائه است:

  • حکمرانی داده: حکمرانی هوش مصنوعی، پیش از هر چیز، مستلزم طراحی نظام حکمرانی داده است. چراکه داده، به‌مثابه مواد خام در توسعه هوش مصنوعی است. در بند «۱» ماده(۵) سند ملی هوش مصنوعی (راهبردها و اقدامات ملی)، به «لزوم تدوین نظام حکمرانی داده، به‌منظور تسهیل در بهره‌برداری انتفاعی و غیرانتفاعی از داده‌های تولیدی کشور از طریق اصلاح قوانین و مقررات موجود و به رسمیت شناختن مالکیت و حق بهره‌برداری انتفاعی هر شخص یا نهاد بر داده‌های تولیدی خود با حفظ ملاحظات امنیت ملی، رعایت حریم خصوصی و اخلاق عمومی» اشاره شده است. مطالعه عمیق مبانی حقوقی حکمرانی داده، در عین توجه به مبانی فنی و زیرساختی، از اهم نیازهای خط‌مشی‌پژوهان و خط‌مشی‌گذاران این حوزه است. چراکه این مباحث بنیادین، تکیه‌گاه طراحی نظام حکمرانی هوش مصنوعی در کشور است.
  • طراحی نظام نوآورانه تسهیلگر-تنظیم‌گر در قالب قوانین و مقررات: با توجه به ابلاغ سند ملی هوش مصنوعی و هدف‌گذاری‌های کلان آن، نیل به اهداف سند مستلزم طراحی یک نظام نوآوری فناورانه پویا و چابک در این حوزه خاص است تا ضمن برآورده کردن انتظارات واحد‌های توسعه‌دهنده این فناوری، ضامن حفظ امنیت ‌ملی، حفاظت از حقوق شهروندان و تکامل فناوری باشد. این نظام باید به‌صورت هم‌زمان تسهیلگری و تنظیم‌گری را تضمین کرده و اطمینان دهد که به‌وسیله قوانین و مقررات، مانع نوآوری نمی‌شود، بلکه صرفاً ریسک ناشی از چالش‌های حیاتی مانند حفظ حریم خصوصی داده‌ها، پاسخ‌گویی الگوریتمی و شفافیت را مدیریت می‌کند. ازاین‌رو از مهم‌ترین گام‌های حکمرانی هوش مصنوعی در کشور، طراحی و تدوین یک نظام تسهیلگر-تنظیم‌گر انعطاف‌پذیر و پویاست که کاربست هوش مصنوعی را تسهیل کرده و شتاب دهد. این نظام باید شامل قواعد وچارچوب‌هایی برای سرمایه‌گذاری استراتژیک، ایجاد صندوق‌های سرمایه‌گذاری خطرپذیر تخصصی، مشوق‌های مالیاتی، حفظ ایمنی و حریم خصوصی، تضمین عدالت و تعادل اجتماعی، توسعه مداوم زیرساخت‌ها، ایجاد بازارهای رقابتی داخلی و حضور در بازارهای بین‌المللی باشد. علاوه‌بر این، نظارت فعال بر اجرای این قواعد و ارائه تنظیمات به‌روز و سازگار با پیشرفت‌های فناوری نیز حیاتی است. همچنین مطابق با بند «1-5» از ماده (5) سند ملی هوش مصنوعی، «ایجاد محیط‌های حقیقی و مجازی آزمون تنظیم‌گری به‌منظور فراهم‎‌آوری زیرساخت بهره‌برداری آزمایشی محصولات و خدمات حوزه هوش مصنوعی در مقیاس محدود و قابل کنترل» (سندباکس تنظیم‌گری هوش مصنوعی)، از راهبردها و اقدامات ملی مورد انتظار است.
  • ایجاد سازوکارهای نظارت و ارزیابی: با توجه به بند «۶» ماده(4) سند ملی هوش مصنوعی (سیاست‌های راهبردی)، که به ضرورت نظارت و مراقبت بر تصمیمات و خودمختاری هوش مصنوعی و جلوگیری از رخ‌نمانگاری و اعتبارسنجی اجتماعی بدون رعایت حقوق افراد و قوانین کشور تأکید دارد و در راستای اطمینان از رعایت قوانین و مقررات مربوط به حکمرانی هوش مصنوعی، ایجاد سازوکارهایی برای نظارت و ارزیابی منظم، با توجه به اینکه مقوله «نظارت» از کلان‌کارکردهای مجلس شورای اسلامی است، ضروریست. این سازوکارها باید طبق بند «3-1» «راهبردها و اقدامات ملی» سند ‌ملی هوش‌ مصنوعی، شامل «تدوین استانداردهای مربوط به مالکیت فکری تولیدات مبتنی‌بر هوش مصنوعی و به اشتراک‌گذاری داده و همچنین ایمنی و امنیت سیستم‌ها و خدمات هوش مصنوعی» باشد. به‌منظور پشتیبانی علمی از نظارت مجلس در این حوزه و تضمین عدالت، آزادی‌ها و حقوق اساسی مردم، انتظار می‌رود مرکز پژوهش‌های مجلس به یکی از کانون‌های مرجع مطالعات و تجمیع ایده‌های کلان حکمرانی هوش مصنوعی تبدیل شود.
  • توسعه زیرساخت‌های فنی، فرهنگی و ترویجی: بند «۲» ماده (5) سند ملی‌ هوش مصنوعی با عنوان «آموزش و پژوهش»، به اهمیت توجه زیرساختی و ساختاری در توسعه منابع انسانی در این حوزه پرداخته است. در این راستا به‌منظور ارتقای نیروی انسانی مؤثر و توسعه هوش مصنوعی در کشور، لازم است که زیرساخت‌های فنی، فرهنگی و ترویجی مناسب ازجمله با بسترسازی تأسیس و گسترش اندیشکده‌ها، کانون‌های فکری و حلقه‌های میانی در حوزه هوش مصنوعی ایجاد شود. این موضوع شامل آموزش متخصصان در زمینه‌ هوش مصنوعی، توسعه تکنولوژی محلی و ایجاد بسترهای مشارکتی بین حاکمیت، صنعت و دانشگاه‌ها برای تحقق اهداف حکمرانی هوش مصنوعی است که هماهنگی نهادی میان بخش‌های مختلف آموزشی، فرهنگی و تحقیقاتی را می‌طلبد. همچنین ایجاد شبکه‌ای منسجم از کنشگران رسانه‌ای فعال در این عرصه می‌تواند به ترویج مناسب فرهنگ استفاده از هوش مصنوعی و پذیرش اجتماعی آن در یک بازه زمانی مناسب کمک کرده و از ایجاد نگرانی‌های ضدامنیتی برای پشتیبانی از توسعه این فناوری پیشگیری کند.
  • ارتقای همکاری بین‌المللی: بند «۶» «راهبردها و اقدامات ملی» سند ملی هوش مصنوعی، به «تعاملات بین‌المللی» اشاره دارد. حکمرانی هوش مصنوعی یک مسئله جهانی بوده و نیازمند همکاری و تعامل بین کشورهاست. با توجه به گزاره‌های بند«۶»‌ام، برنامه‌های تبادل دانش و تجربه، تدوین پیمان‌ها و توافق‌نامه‌های بین‌المللی برای حفظ حقوق و حریم خصوصی به‌خصوص با کشورهای همسو و مشارکت فعال در تدوین استانداردهای جهانی برای حکمرانی هوش مصنوعی با هدف توسعه عادلانه فناوری‌های مبتنی‌بر هوش مصنوعی، تضمین دسترسی‌پذیری عادلانه، تضمین حقوق جوامع و... ازجمله اقدامات مؤثر در این زمینه هستند. در این راستا پیشنهاد ایجاد همسویی میان کشورهای در حال توسعه در قالب‌هایی مانند بریکس، شانگهای و عدم‌تعهد با هدف توسعه پایدار جهانی و مخالفت با یکجانبه‌گرایی، قدمی بزرگ برای پیشگیری از ایجاد انحصار حقوقی برای فناوری هوش مصنوعی در کشورهای بلوک ناتو است که باید با اولویت دنبال شود. این همکاری‌های بین‌المللی خواهد توانست چارچوب حقوقی کشور را در این حوزه، پیش از تدوین چارچوب‌های حقوقی بین‌المللی و تحمیل آن بر نظام حقوقی کشور، ساختاردهی کند و در مرحله تدوین چارچوب‌های حقوقی بین‌المللی، همکاری با بازیگران جهانی با اهداف مشترک، مانع از تحمیل خواسته‌ها و اهداف کشورهای پیشرو در این حوزه و اعمال محدودیت‌های بازدارنده بر کشور شده یا حداقل پیشرفت‌های ضروری پیش از تحمیل این‌ فرایند جهانی، در کشور به‌دست آمده باشد. زیرا رصدها نشان می‌دهد آمریکا و کشورهای اروپایی اولین گام‌ها برای تدوین یک کنوانسیون بین‌المللی را برداشته‌اند و کوتاهی در این زمینه می‌تواند منجر به بروز چالش‌های بلندمدت برای کشور شود.
  • توسعه مکانیسم‌های مشارکت عمومی: «تقویت مردم‌محوری و روحیه تعاون در توسعه و بهره‌برداری از هوش مصنوعی»، از موارد مورد توجه سند ملی هوش مصنوعی در ماده (4) یعنی «سیاست‌های راهبردی» است. مشارکت مردم، نخبگان و ذی‌نفعان مختلف در‌ فرایند تصمیم‌گیری و اجرای خط‌مشی‌های مربوط به حکمرانی هوش مصنوعی بسیار ضروری و ارزشمند است. بنابراین لازم است که مجلس و مرکز پژوهش‌ها، با توجه به ظرفیت‌های ارتباطی و اندیشکده‌های حکمرانی و‌ قانونگذاری استانی خود، سازوکارهایی برای بهره‌گیری نظرات و نگرش‌های گوناگون جامعه و ایجاد فضایی برای ارتباط مستقیم بین حاکمیت و شهروندان و بسط حکمرانی مردمی در توسعه هوش مصنوعی فراهم کنند. خروجی این سازوکارها می‌تواند شامل مواردی مانند پیشنهادهای اجرایی، شناسایی چالش‌های عملیاتی در حوزه داده و الگوریتم‌ها، پیشنهاد راهکارهای تنظیم‌گرانه، پیشنهاد سازوکارهای تبادلی و تعاملی میان ذی‌نفعان مختلف و مواردی از این دست توسط اشخاص و شرکت‌های بخش خصوصی باشد. این دسته از بازیگران به‌علت سروکار داشتن با مسائل اجرایی واقعی این حوزه و ‌‌همچنین به‌روز و مجهز بودن به علم روز دنیا در حوزه فناوری‌های مرتبط، می‌توانند کمک شایانی کنند. این سازوکارهای مشارکتی‌‌همچنین خواهند توانست با ایجاد حس اهمیت‌دهی و شنیدن دغدغه‌ها توسط شهروندان از سمت حاکمیت، از نگرانی‌های ایشان و مقاومت‌های فردی و سازمانی در توسعه این فناوری در کشور، بکاهند.
  • تولید ادبیات حقوقی: در زمینه مسائل حقوقی، یکی از چالش‌های عمده کشور عدم وجود کلیدواژه‌های تخصصی فارسی ناظر به مفاهیم فنی- حقوقی در حوزه هوش مصنوعی است. ازاین‌رو پیشنهاد می‌شود برای تبیین مفهومی و ارائه این کلیدواژه‌های فارسی، کمیته‌ای میان‌رشته‌ای با مشارکت بخش‌های مختلف ذی‌نفع در مرکز پژوهش‌های مجلس در این زمینه تشکیل شود.

با توجه به سرعت پیشرفت و گسترش فناوری‌های هوش مصنوعی و تأثیرات گسترده آن بر جامعه، لزوم ایجاد یک نظام نوآوری فناورانه برای پرداختن به تسهیلگری و تنظیم‌گری مقوله هوش مصنوعی، به‌عنوان یکی از‌‌ مؤلفه‌های اصلی حکمرانی هوش مصنوعی، بیش‌ازپیش احساس می‌شود. تسهیلگری و تنظیم‌گری مناسب می‌تواند به شتاب‌دهی، کنترل و نظارت بر توسعه و کاربردهای هوش مصنوعی کمک کرده و از بروز تخلفات و مخاطرات احتمالی جلوگیری کند. پیشنهاد می‌شود که یک چارچوب تسهیلگر-تنظیم‌گر جامع و چندلایه تدوین شود که شامل تمامی ‌ذی‌نفعان و بازیگران مختلف باشد. این چارچوب باید به‌گونه‌ای طراحی شود که همگام با پیشرفت‌های فناوری، قابل انعطاف و به‌روزرسانی باشد و بتواند نیازهای جامعه را در تمامی سطوح برآورده کند.

با این رویکرد، می‌توان به توسعه پایدار و مسئولانه هوش مصنوعی دست یافت و ایران را به‌عنوان یک کشور پیشرو در زمینه هوش مصنوعی در منطقه و جهان معرفی کرد. تسهیلگری و تنظیم‌گری جامع و مدبرانه نه‌تنها به حفاظت از حقوق شهروندان و جلوگیری از سوءاستفاده از فناوری کمک می‌کند، بلکه می‌تواند بستری مناسب برای نوآوری و رشد اقتصادی پایدار فراهم آورد.

 

[1] A. J. Izenman, Modern Multivariate Statistical Techniques. New York, NY: Springer New York, 2008. doi: 10.1007/978-0-387-78189-1.
[2] I. Linkov, B. Trump, K. Poinsatte-Jones, and M.-V. Florin, “Governance Strategies for a Sustainable Digital World,” Sustainability, vol. 10, no. 2, p. 440, Feb. 2018, doi: 10.3390/su10020440.
[3] C. O’neil, Weapons of math destruction: How big data increases inequality and threatens democracy. Crown, 2017.
[4] R. Brownsword and H. Somsen, “Law, innovation and technology: Before we fast forward-a forum for debate,” Law Innov Technol, vol. 1, no. 1, pp. 1–73, 2009, doi: 10.1080/17579961.2009.11428364.
[5] P. Stone et al., “Artificial Intelligence and Life in 2030: The One Hundred Year Study on Artificial Intelligence,” Oct. 2022, Accessed: Feb. 23, 2024. [Online]. Available: http://arxiv.org/abs/2211.06318.
[11] U. Gasser and V. A. F. Almeida, “A Layered Model for AI Governance,” IEEE Internet Comput, vol. 21, no. 6, pp. 58–62, Nov. 2017, doi: 10.1109/MIC.2017.4180835.
[12] A. Daly et al., “Artificial intelligence governance and ethics: global perspectives,” arXiv preprint arXiv:1907.03848, 2019.
[13] R. Calo, “Artificial Intelligence Policy: A Roadmap,” SSRN Electronic Journal, Sep. 2017, doi: 10.2139/SSRN.3015350.
[14] I. Ulnicane, D. O. Eke, W. Knight, G. Ogoh, and B. C. Stahl, “Good governance as a response to discontents? Déjà vu, or lessons for AI from other emerging technologies,” Taylor & FrancisI Ulnicane, DO Eke, W Knight, G Ogoh, BC StahlInterdisciplinary Science Reviews, 2021•Taylor & Francis, vol. 46, no. 1–2, pp. 71–93, 2021, doi: 10.1080/03080188.2020.1840220.
[15] W. Wu, T. Huang, and K. Gong, “Ethical Principles and Governance Technology Development of AI in China,” Engineering, vol. 6, no. 3, pp. 302–309, Mar. 2020, doi: 10.1016/J.ENG.2019.12.015.
[16] H. Al Zadjali, “Building the right AI governance model in Oman,” ACM International Conference Proceeding Series, pp. 116–119, Sep. 2020, doi: 10.1145/3428502.3428516.
[17] N. M. Aliman and L. Kester, “Extending socio-Technological reality for ethics in artificial intelligent systems,” Proceedings - 2019 IEEE International Conference on Artificial Intelligence and Virtual Reality, AIVR 2019, pp. 275–282, Dec. 2019, doi: 10.1109/AIVR46125.2019.00064.
[18] J. Butcher, I. B.-T. R. Journal, and undefined 2019, “What is the state of artificial intelligence governance globally?,” Taylor & FrancisJ Butcher, I BeridzeThe RUSI Journal, 2019•Taylor & Francis, vol. 164, no. 5–6, pp. 88–96, Sep. 2019, doi: 10.1080/03071847.2019.1694260.
[19] C. C.-P. T. of the R. Society and undefined 2018, “Governing artificial intelligence: ethical, legal and technical opportunities and challenges,” royalsocietypublishing.orgC CathPhilosophical Transactions of the Royal Society A, 2018•royalsocietypublishing.org, vol. 376, no. 2133, Nov. 2018, doi: 10.1098/rsta.2018.0080.
[20]  B. Perry, R. U.-B. data and cognitive computing, and undefined 2019, “AI governance and the policymaking process: key considerations for reducing AI risk,” mdpi.comB Perry, R UukBig data and cognitive computing, 2019•mdpi.com, vol. 3, no. 2, pp. 1–17, Jun. 2019, doi: 10.3390/bdcc3020026.
[21]  H. Al Zadjali, “Building the right AI governance model in Oman,” ACM International Conference Proceeding Series, pp. 116–119, Sep. 2020, doi: 10.1145/3428502.3428516.
[22]  I. Ulnicane, W. Knight, T. Leach, B. C. Stahl, and W.-G. Wanjiku, “Framing governance for a contested emerging technology: insights from AI policy,” academic.oup.comI Ulnicane, W Knight, T Leach, BC Stahl, WG WanjikuPolicy and Society, 2021•academic.oup.com, 2021, doi: 10.1080/14494035.2020.1855800.
[23]  A. Buhmann, C. F.-T. in Society, and undefined 2021, “Towards a deliberative framework for responsible innovation in artificial intelligence,” Elsevier, Accessed: Feb. 23, 2024. [Online]. Available: https://www.sciencedirect.com/science/article/pii/S0160791X20312781
[24]  B. S. Barn, “Mapping the public debate on ethical concerns: algorithms in mainstream media,” Journal of Information, Communication and Ethics in Society, vol. 18, no. 1, pp. 38–53, Mar. 2020, doi: 10.1108/JICES-04-2019-0039.
[25]  C. D. Raab, “Information privacy, impact assessment, and the place of ethics ⁎,” Computer Law and Security Review, vol. 37, Jul. 2020, doi: 10.1016/J.CLSR.2020.105404.
[26]  J. Buenfil, R. Arnold, B. Abruzzo, and C. Korpela, “Artificial Intelligence Ethics: Governance through Social Media,” 2019 IEEE International Symposium on Technologies for Homeland Security, HST 2019, Nov. 2019, doi: 10.1109/HST47167.2019.9032907.
[27]  R. J. D.-P. of the 20th A. International and undefined 2019, “The AI pandorica: linking ethically-challenged technical outputs to prospective policy approaches,” dl.acm.orgR J. DomanskiProceedings of the 20th Annual International Conference on Digital, 2019•dl.acm.org, pp. 409–416, Jun. 2019, doi: 10.1145/3325112.3325267.
[28]  B. Shneiderman, “Bridging the gap between ethics and practice: Guidelines for reliable, safe, and trustworthy human-centered AI systems,” ACM Trans Interact Intell Syst, vol. 10, no. 4, Oct. 2020, doi: 10.1145/3419764.
[29] J. K.-P. of the 2021 A. C. on Fairness and undefined 2021, “Outlining traceability: A principle for operationalizing accountability in computing systems,” dl.acm.orgJA KrollProceedings of the 2021 ACM Conference on Fairness, Accountability, and, 2021•dl.acm.org, pp. 758–771, Mar. 2021, doi: 10.1145/3442188.3445937.
[30]  W. Orr and J. L. Davis, “Attributions of ethical responsibility by Artificial Intelligence practitioners,” Inf Commun Soc, vol. 23, no. 5, pp. 719–735, Apr. 2020, doi: 10.1080/1369118X.2020.1713842.
[31]  L. Floridi et al., “An ethical framework for a good AI society: Opportunities, risks, principles, and recommendations,” SpringerL Floridi, J Cowls, M Beltrametti, R Chatila, P Chazerand, V Dignum, C Luetge, R MadelinEthics, governance, and policies in artificial intelligence, 2021•Springer, vol. 28, no. 4, pp. 689–707, Dec. 2018, doi: 10.1007/s11023-018-9482-5.
[32] H. S.-P. T. of the R. Society and undefined 2018, “Algorithmic accountability,” royalsocietypublishing.orgH ShahPhilosophical Transactions of the Royal Society A, 2018•royalsocietypublishing.org, vol. 376, no. 2128, 2018, doi: 10.1098/rsta.2017.0362.
[33]  S. Larsson, F. H.-I. P. Review, and undefined 2020, “Transparency in artificial intelligence,” policyreview.infoS Larsson, F HeintzInternet Policy Review, 2020•policyreview.info, vol. 9, no. 2, pp. 1–16, May 2020, doi: 10.14763/2020.2.1469.
[34] P. de Almeida, C. dos Santos, J. F.-E. and Information, and undefined 2021, “Artificial intelligence regulation: a framework for governance,” SpringerPGR de Almeida, CD dos Santos, JS FariasEthics and Information Technology, 2021•Springer, vol. 23, no. 3, pp. 505–525, Sep. 2021, doi: 10.1007/s10676-021-09593-z.
[35] A. Daly et al., “Artificial Intelligence, Governance and Ethics: Global Perspectives,” SSRN Electronic Journal, Jul. 2019, doi: 10.2139/SSRN.3414805.
 [36] C. van Noordt and G. Misuraca, “Exploratory Insights on Artificial Intelligence for Government in Europe,” Soc Sci Comput Rev, vol. 40, no. 2, pp. 426–444, 2022, doi: 10.1177/0894439320980449.
[37] N. Maslej et al., “Artificial intelligence index report 2023,” arXiv preprint arXiv:2310.03715, 2023.
[38] “J. Palfrey and U. Gasser, Interop: The Promise and... - Google Scholar.” A c c e s s e d : F e b . 2 3 , 2 0 2 4 . h t t p s : / / s c h o l a r . g o o g l e . c o m / s c h o l a r ? h l = e n & a s _ s d t = 0 % 2 C 5 & q = J . + P a l f r e y + a n d + U . + G a s s e r % 2 C + I n t e r o p % 3 A + T h e + P r o m i s e + a n d +Perils+of+Highly+Interconected+Systems%2C+Basic+Books%2C+2012.&btnG=
[39] C. Scott, “Regulation in the age of governance: The rise of the post-regulatory state,” The Politics of Regulation: Institutions and Regulatory Reforms for the Age of Governance, pp. 145–174, 2004, doi: 10.4337/9781845420673.00016.
[40] “U. Gasser, ‘AI and the Law: Setting the Stage,’...-Google Scholar.” Accessed: F e b . 2 3 , 2 0 2 4 . h t t p s : / / s c h o l a r. g o o g l e . c o m / s c h o l a r ? h l = e n & a s _ s d t = 0 % 2 C 5 & q = U .+Gasser%2C+%E2%80%9CAI+and+the+Law%3A+Setting+the+Stage%2C%E2%80%9D +Medium%2C+26+June+2017%3B&btnG=
[41] R. Chatila, K. Firth-Butterflied, … J. H.-I. R. and, and undefined 2017, “The IEEE global initiative for ethical considerations in artificial intelligence and autonomous systems,” academia.eduR Chatila, K Firth-Butterflied, JC Havens, K KarachaliosIEEE Robotics and Automation Magazine, 2017 academia.edu, Accessed: Feb. 23, 2024. [Online]. Available: https://www.academia.edu/download/71373434/07886245.pdf
[42] S. Abiteboul, G. Miklau, J. Stoyanovich, and G. Weikum, “Data, responsibly )dagstuhl seminar 16291),” in Dagstuhl Reports, Schloss Dagstuhl-Leibniz-Zentrum fuer Informatik, 2016.
[43] M. U. Scherer, “Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies,” SSRN Electronic Journal, Jun. 2015, doi: 10.2139/SSRN.2609777.
[44] S. Wachter, B. Mittelstadt, L. F.-I. D. Privacy, and undefined 2017, “Why a right to explanation of automated decision-making does not exist in the general data protection regulation,” academic.oup.comS Wachter, B Mittelstadt, L FloridiInternational Data Privacy Law, 2017 academic.oup.com, Accessed: Feb. 23, 2024. [Online]. Available: https://academic.oup.com/idpl/article-pdf/doi/10.1093/idpl/ipx005/17932196/ipx005.pdf