نوع گزارش : گزارش های راهبردی
نویسندگان
1 کارشناس گروه سیاست پژوهی و آزمایشگاه حکمرانی، دفتر مطالعات بنیادین حکمرانی مرکز پژوهش های مجلس شورای اسلامی
2 کارشناس گروه سیاست پژوهش و آزمایشگاه حکمرانی دفتر مطالعات بنیادین حکمرانی، مرکز پژوهش های مجلس شورای اسلامی
3 معاون دفتر مطالعات بنیادین حکمرانی (گروه سیاست پژوهی و آزمایشگاه حکمرانی)، مرکز پژوهش های مجلس شورای اسلامی
چکیده
حکمرانی هوش مصنوعی به عنوان بستر راهبری توسعه هوش مصنوعی، یک مفهوم پویا و چندوجهی بوده و نقش مهمی در ساخت آینده جوامع مدرن ایفا خواهد کرد. حکمرانی هوش مصنوعی شامل مجموعه ای از فرایندها، استانداردها، قوانین و خط مشی ها می شود که به منظور راهبری، مدیریت، کنترل بهینه، توسعه و کاربست فناوری هوش مصنوعی و پیامدهای مرتبط با آن طراحی می شود. نتیجه آن اقداماتی است که هدف آن تضمین ایمنی، عدالت، شفافیت و اخلاق در توسعه، اجرا و استفاده از سیستم ها و فناوری های مبتنی بر هوش مصنوعی است. این اقدامات شامل: تعیین استانداردها و دستورالعمل ها، مدیریت داده ها، حفظ حریم خصوصی، تعیین مسئولیت ها و حقوق، مدیریت و نظارت بر الگوریتم ها و تضمین توسعه مداوم و پایداری استفاده از هوش مصنوعی برای همه سطوح فنی و دانشی جامعه است.
این گزارش مفاهیم مرتبط با حکمرانی هوش مصنوعی را تبیین کرده است. در این گزارش تلاش شده است ابعاد مختلف حکمرانی هوش مصنوعی مورد بررسی و تحلیل قرار گیرد. در این راستا ابتدا مفاهیم اساسی این حوزه ازجمله تعاریف و اهمیت حکمرانی هوش مصنوعی مورد بررسی قرار گرفته است؛ سپس به بررسی چالش های موجود در این زمینه پرداخته شده که شامل مسائل فنی، ذی نفعان و قواعد کلان(تنظیم گری) می شود. بررسی آمارهای بین المللی نیز نشان می دهد که توجه به اهمیت حکمرانی هوش مصنوعی به سرعت در حال گسترش است و تأثیرات آن بر جوامع قابل توجه است. ازآنجاکه هوش مصنوعی در سال های آتی یک فناوری تحولی، راهبردی در توسعه ابعاد مختلف زندگی اجتماعی خواهد بود، ضرورت پرداختن به حکمرانی هوش مصنوعی در کشور را دوچندان می سازد.
گزیده سیاستی
این گزارش با نگاهی نو به مفهوم حکمرانی هوش مصنوعی، پس از بررسی چالشها و فرصتهای کاربست این فناوری، چارچوبی مفهومی جهت بهره مندی ایمن و مسئولانه از آن با هدف تضمین عدالت و امنیت در کنار پیشرفت هوش مصنوعی برای شهروندان ارائه می دهد.
کلیدواژهها
موضوعات
استفاده فزاینده از هوش مصنوعی در زمینههای گوناگون نظیر بهداشت، آموزش، امنیت و خدمات عمومی، اهمیت ایجاد زیرساختهای حقوقی و اجرایی مناسب برای مدیریت این فناوری را دوچندان کرده است. کشورهای در حال توسعه همچون ایران، که با چالشهایی نظیر محدودیت زیرساختهای فنی، نبود نظام جامع حکمرانی داده و عدم آگاهی عمومی مواجه هستند، نیازمند ایجاد چارچوبی منسجم برای هدایت این فناوریاند. عدم مدیریت مؤثر بر توسعه و کاربست هوش مصنوعی ممکن است به تشدید نابرابریها، نقض حریم خصوصی، تهدیدات امنیتی و کاهش اعتماد عمومی بینجامد.
حکمرانی هوش مصنوعی به عنوان چارچوبی برای مدیریت و کنترل این فناوری، بر اصولی نظیر ایمنی، عدالت، شفافیت، و احترام به حقوق بشر استوار است. این مفهوم تنها به وضع مقررات محدود نمیشود، بلکه شامل سازوکارهایی برای ارتقای فرهنگسازی، تقویت دانش عمومی و توانمندسازی ذینفعان نیز میشود. علاوه بر این، حکمرانی هوش مصنوعی باید بتواند تعادلی میان نوآوری و رعایت ملاحظات اجتماعی ایجاد کند تا به ارتقای کیفیت زندگی کمک نماید و همزمان از بروز خطرات و پیامدهای ناخواسته جلوگیری کند.
با توجه به این مهم و ابلاغ سند ملی هوش مصنوعی که بیانگر اهمیت راهبردی آن است، پرداخت به مفهوم حکمرانی هوش مصنوعی با هدف طراحی قواعد کلان کنشگری ذینفعان این حوزه امری حیاتی است. قواعدی که بهوضوح اهداف، مسئولیتها و راهبردهای لازم جهت توسعه مؤثر و مطلوب این فناوری را تبیین کند و چابکی لازم برای مواجهه با تعارضات این حوزه را داشته باشند. از وجوه دیگر پرداخت راهبردی به مفهوم حکمرانی هوش مصنوعی، توانمندسازی مدیران و کارکنان بخش دولتی و خصوصی با هدف ارتقای سطح آگاهی و میزان پذیرش فناوریهای مبتنیبر هوش مصنوعی است که خود از چالشهای قابلتوجه پیشرو کشورهاست.
در همین راستا توصیههای زیر پیشنهاد میشود:
مفهوم هوش مصنوعی به تلاشهایی در توسعه کارکردهایی رایانهمبنا جهت تقلید هوش انسانی با بهرهمندی از توانایی تفسیر و یادگیری از دادهها، میپردازد. برای نمونه شبکههای عصبی مصنوعی برای درک و تقلید از فعالیت نورونها در مغز انسان طراحی شد؛ بعدها شبکههای عصبی پیچیدهتری در اواخر قرن بیستم توسعه یافت و توانمندیهایی مانند تشخیص تصویر و گفتار را در این سیستمها ایجاد کرد[1].
این تلاشها منجر به معرفی مفهوم هوش مصنوعی بهعنوان برنامههای کامپیوتری (یا ماشینهایی) شد که میتوانند وظایف از پیش تعریف شده را با سرعت و دقت بسیار بالاتر انجام دهند. در موج اخیر پیشرفتهای هوش مصنوعی که با پیشرفت در تجزیهوتحلیل کلانداده تسهیل شده است، قابلیتهای هوش مصنوعی به برنامههای رایانهای که میتوانند حجم عظیمی از دادهها را یاد گرفته و بدون راهنمایی انسان تصمیم بگیرند -که معمولاً بهعنوان الگوریتمهای یادگیری ماشینی نامیده میشوند-، گسترش یافته است[1].
برخلاف الگوریتمهای ابتدایی هوش مصنوعی که بر قوانین از پیش برنامهریزی شده برای اجرای وظایف تکراری تکیه میکردند، الگوریتمهای یادگیری ماشینی با محاسبات آماری و قوانینی درباره نحوه یادگیری از دادهها طراحی شدهاند که شامل «استدلال استنتاجی»، «ادراک»، «طبقهبندی» و «بهینهسازی» جهت تقلید اعمال انسانی است[3]و [4]. این اعمال میتواند شامل پیشبینی، درک، مواجهه، توصیه و مواردی از این دست که متأثر از هوش انسانی هستند، باشد.
ظرفیتهای حاصل از فناوری هوش مصنوعی در تحول ابعاد تعامل حاکمیتها و شهروندان قابلتوجه است. ازجمله ظرفیت پیشرفت در پزشکی و بهداشت عمومی، حملونقل عمومی، انرژی، آموزش، علم، امنیت، رشد اقتصادی و پایداری محیط زیستاست[5]. بااینحال، خطرات آن نیز قابلتوجه هستند و چالشهای شدیدی را برای حکمرانی ایجاد میکنند. با رصد الگوی زمانی مواجهه با فناوریهای نوین میتوان پیشبینی کرد که احتمالاً در مواجهه به هوش مصنوعی، سیاستمداران، خطمشیگذاران و سایر ذینفعان عمدتاً بر خطرات و آسیبهای فناوریهای مبتنیبر هوش مصنوعی تمرکز میکنند[4]. در مورد تأثیر فناوریهای دیجیتال بر جامعه، چالشهای مربوط به هوش مصنوعی، سیستمهای مستقل و الگوریتمها، اغلب در قالب فهرستی از موضوعات اساسی که شامل ملاحظات حکمرانی، سیاسی، حقوقی و اخلاقی است مورد بحث قرار میگیرند [5].
هدف کلی این گزارش، تشریح مفهوم حکمرانی بر هوش مصنوعی به تناسب کارکردها و چالشهای این فناوری است. درک مشترک از مفاهیم هوش مصنوعی برای خطمشیگذاران، مدیران دولتی و شهروندان، همزمان با درهمآمیختگی مفهوم هوش مصنوعی و امور حاکمیتی بسیار مهم است. با کاوش در مفهوم و چارچوب حکمرانی بر هوش مصنوعی، هدف ما روشن کردن ابعاد این مفهوم و کمک به بازتولید و توسعه کارآمد حکمرانی بر این حوزه از علم و فناوری است. با بررسی انتقادی وضعیت حکمرانی بر هوش مصنوعی در جهان، این گزارش به دنبال تبیین ارتباط با حکمرانی بر هوش مصنوعی و توسعه پایدار هوش مصنوعی مسئول و مؤثر است.
گزارشهای متعددی در مرکز پژوهشهای مجلس با کلیدواژه هوش مصنوعی تدوین شده که شامل بررسی ابعاد گوناگون این فناوری است. برای مثال سلسله گزارشهای «هوش مصنوعی در جهان»[6] کشورهایی را بهصورت مجزا مورد بررسی قرار داده است. سه گزارش نیز تحت عناوین: «چالشها و راهکارهای تحقق حکمرانی هوشمند»[7]، «تصمیمگیری مبتنیبر داده: رویکردی جهت تحول حکمرانی پارلمانی»[8] و «نگاشت نهادی و تقسیمکار ملی در حوزه توسعه هوش مصنوعی و حکمرانی دادهمحور»[9] در سال 1402 در مرکز به چاپ رسید که هرکدام بهنوعی بهمقوله حکمرانی هوش مصنوعی و رویکرد دادهمبنا اشاره داشتند. دفتر مطالعات حکمرانی در گزارش دیگری با عنوان «بررسی لایحه برنامه هفتم توسعه (۸۸): توسعه پایدار هوش مصنوعی در کشور»[10] آورده است که برنامه هفتم توسعه بهعنوان ریلگذار پیشرفت کشور در پنج سال آینده، نقش مهمی در توسعه پایدار فناوریهای نوین در کشور خواهد داشت. ازجمله فناوریهایی که طی سالهای اجرای برنامه هفتم توسعه نقشی راهبردی در پیشرفت کشور خواهد داشت، فناوری هوش مصنوعی است.
نظر به اهمیت بحث هوش مصنوعی در کشور و تأکیدات مقام معظم رهبری در سال ۱۴۰۳ مبنیبر آن، با تکیه بر گزارشات پیشین و مفاهیم بحث شده، در گزارش حاضر به وجوه گوناگون مفهوم حکمرانی هوش مصنوعی با هدف واکاوی ابعاد و وجوه مختلف فناوری هوش مصنوعی در جامعه با یک نگاه کلنگر و ارائه یک تصویر کلی از آن، پرداخته شده است. لازمه این امر، ارائه پیشنهادهای عملیاتی برای کشور، بررسی تجربیات بینالمللی و کشورهای پیشرو در این حوزه و در مرحله بعد پیشنهاد مدلی جهت مواجهه با هوش مصنوعی در کشور و طراحی نظام حکمرانی هوش مصنوعی مطلوب در کشور است که در این گزارش مدنظر خواهد بود.
در ارتباط با هوش مصنوعی در کشور، ماده ۶۵ قانون برنامه هفتم بند ج دولت را مکلف به نوشتن برنامه ملی هوش مصنوعی کرده است. ضمنا سند ملی توسعه هوش مصنوعی ابلاغی سال 1403 حاوی موادی مرتبط با این گزارش است. ضروری است این سند که ایجاد خطوط راهنما و چارچوبهای کلی توسعه هوش مصنوعی در کشور را مدنظر داشته است، در شیوه مواجهه با این فناوری و توسعه و جهتدهی حکمرانی هوش مصنوعی در کشور، مدنظر باشد. بنابراین کلیات این سند در ادامه بررسی خواهد شد.
در ماده (2)، اصول و مبانی ارزش حاکم بر این سند را شامل: اصل اعتقادی و ارزشهای اسلامی، توجه به ابعاد وجودی انسان مبتنیبر فلسفه و معارف اسلامی، تأمین آرمانها و ارزشهای جامعه اسلامی، خوداتکایی، کرامت و عدالت، استقلال و امنیت، آیندهنگری، امنیت دادهها، انحصارزدایی، جلوگیری از سلطه هوش مصنوعی بر انسانها و تقویت ارتباطات انسانی و مواردی از این دست میداند.
در ماده (۳)، درخصوص اهداف کلانبر: ۱. تربیت سرمایه انسانی، ۲. ارتقا و تأمین زیرساختها، ۳. جهش تولیدات فکری، علمی و فناورانه، ۴. ارتقای نوآوری برپایه فناوریهای بدیع با اثرگذاری اجتماعی و اقتصادی بالا، ۵. ارتقای رقابتپذیری اقتصادی کشور، ۶. ارتقای تعاملات آموزشی، فناورانه و اقتصادی بینالمللی و ۷. ارتقای کیفیت حکمرانی تأکید شده است. همچنین شاخصهایی جهت ارزیابی کلان هرکدام از اهداف مذکور در بازه زمانی پنجساله ذکر شده است.
ماده (۴)، مرتبط با سیاستهای راهبردی را میتوان بهصورتکلی در این حوزهها دستهبندی کرد: ۱.تحریک رشد اقتصادی و اشتغال و ارزشدهی به فعالیتهای بنگاههای اقتصادی مرتبط با هوش مصنوعی و ایجاد زنجیره کامل ایده تا ثروت در این زمینه، ۲. پیشرفت در راستای ارزشهای اسلامی و تقویت مردممحوری و تعاون، روابط اجتماعی، عدالت و قدرت ملی، ۳. تأکید بر حقوق افراد و قوانین کشور و مسئولیتپذیری و صیانت از اخلاق، کرامت انسانی، اعتماد به نفس، حافظه انسانی، خلاقیت و حفظ حریم خصوصی در توسعه این فناوری، ۴. توسعه کاربردهایی با فراگیری و اثرگذاری بالا و رافع چالشهای ملی و خدمات عمومی، ۵. فرصتآفرینی برای زیستبوم هوش مصنوعی در تعاملات بینالمللی.
در ماده (۵)، راهبردها و اقدامات ملی مدنظر قرار گرفته: ۱. زیرساختهای حکمرانی (فنی، قانونی، تنظیمگری و استانداردسازی)، ۲. آموزش و پرورش (مهارتافزایی و تربیت نیروی انسانی)، ۳. زیرساخت داده و پردازش (ارتقای زیرساختهای نگهداری، امنیت، تابآوری و تسهیل دسترسی به داده و امکانات پردازشی)، ۴. توسعه محصولات فناورانه و تجاریسازی، ۵. توسعه بازار در زیستبوم هوش مصنوعی، ۶. تعاملات بینالمللی در حوزه هوش مصنوعی، ۷.ترویج و فرهنگسازی (ارتقای سواد عمومی و تناسب فرهنگی در استفاده صحیح از این فناوری) مورد تأکید قرار گرفته است.
ماده (۶)، به بیان اولویتهای کشور در محورهای آموزش و پرورش، بهداشت و درمان، حکمرانی دولتی و خدمات عمومی، دفاعی، امنیتی و انتظامی، صنایع و انرژی، محیط زیست و کشاورزی، زبان و ادبیات فارسی، فرهنگ تمدن و سبک زندگی اسلامی-ایرانی، حقوقی و قضایی و رسانه و فضای مجازی پرداخته و در هر محور اولویتها را ذیل دو اولویت الف و ب مشخص کرده است.
این ماده سازمان هوش مصنوعی را موظف به تهیه برنامههای ملی کاربست هوش مصنوعی در این حوزهها با همکاری دستگاههای مرتبط ظرف مدت حداکثر ۶ ماه کرده است.
در ماده (۷)، جهت تدبیر سازوکار اجرا برای این سند، نظارت کلان و سیاستگذاری بر آن را برعهده شورای عالی انقلاب فرهنگی قرار داده و ستاد علم، فناوری و نوآوری این شورا را مسئول رصد اجرای این سند و بازنگریهای لازم قرار داده است.
همچنین شورای ملی راهبری هوش مصنوعی را جهت برنامهریزی، راهبری و هماهنگی اجرای این سند با ترکیب مشخص از دستگاههای مختلف با حضور رئیس سازمان ملی هوش مصنوعی بهعنوان دبیر شورا، تعیین کرده است. بهعلاوه این سازمان ذیل ریاستجمهوری، مأمور به سازماندهی و توسعه زیستبوم هوش مصنوعی در کشور شده است.
درنهایت دستگاههای اجرایی مسئول اجرای این سند، موظف به برنامهریزی جهت لحاظ قرار دادن اقدامات موضوع مواد (۵) و (۶) در اولویت سالیانه و تدبیر منابع و ظرفیتهای لازم در راستای تحقق اهداف این سند شدهاند.
بهنظر میرسد این سند بهرغم جامعیت و تلاش در راستای شمولیت موضوعات مختلف تا حدودی دچار عدم انسجام و پراکندگی محتوایی شده است. برای نمونه برخی از عناوین ذیل مواد مختلف، با یکدیگر همپوشانی داشته و برخی بسیار کلی و عمومی و برخی بسیار جزئی و پروژهای، به بیان موارد پرداختهاند. حال آنکه از یک سند ملی، بیان اهداف و خطمشیها به شکلی نظاممند و ساختاریافته با در نظرگیری ملاحظات و ظرفیتهای موجود کشور در کنار تعیین اولویتهای ملی براساس این ملاحظات و ظرفیتها در بازه زمانی مشخص، انتظار میرفت. پرداختن به انبوهی از مسائل، دغدغهها و اولویتها که در سطح بینالمللی مطرح شده هرکدام در جای خود صحیح و قابل بررسی است، بدون تعیین اولویتهای اصلی و تناسب با شرایط کشور وظرفیتها و تهدیدهای پیش رو و پیشنهاد حدود ۴۰ مورد اولویت در حوزههای مختلف که غالباً یا کلیگویی و یا بسیار موردی و پروژهای مطرح شده است، شایسته سند ملی هوش مصنوعی کشور نیست.
بااینحال کشور پس از عبور از چالش و کشمکش تدوین سند میان دستگاههای مختلف، اکنون صاحب یک سند ملی بوده که ضروری است با ملاحظه انتقادهای وارده، دستگاههای مختلف اجرایی و تقنینی براساس این سند، اکنون به عرصه اقدام و عمل وارد شوند و در چارچوبهای کلان مولفه های حکمرانی هوش مصنوعی لازم است برنامه ریزیهای عملیاتی خود را آغاز کنند پیش از آنکه کشور در تحولات لحظهشمار این حوزه دچار عقبماندگی غیرقابل جبران شود. در ضمن ضروری است باید با توجه به تحولات سریع این فناوری چه در کشور و چه در سطح جهان و منطقه، امکان بازنگری و بروزرسانی این سند، برای جبران خلاء ها و نقص ها فراهم باشد.
3.چرا حکمرانی هوش مصنوعی؟
امروزه اهمیت توجه به فناوری هوش مصنوعی و توسعه آن در کشور، بر کسی پوشیده نیست. رهبر معظم انقلاب پس از تأکید بر قرارگیری کشور در 10 کشور برتر هوش مصنوعی، در اولین جلسه با هیئت دولت چهاردهم پس از ذکر مواردی از بهکارگیری هوش مصنوعی در کشور فرمودند: «در مسئله هوش مصنوعی بهرهبردار بودن امتیاز نیست، لایههای عمیقی دارد این فناوری باید در آن لایهها مسلط شد. آن لایهها دست دیگران است». ایشان پس از اهمیت تسریع در تحقق این اهداف پیش از ایجاد سازمانهای بینالمللی بازدارنده از توسعه این فناوری در سایر کشورها فرمودند: «خودتان باید برسید به فناوریهای عمیق و ژرف این مسئله، لایههای زیرساختی. لایههای زیرساختی هوش مصنوعی را باید در کشور دنبال کنید». توسعه پایدار هوش مصنوعی و دستیابی به لایههای زیرساختی مورد اشاره، جزء با وجود یک نظام ارزیابی، برنامهریزی، اجرا و رصد بههمراه تدبیر سازوکارهای نهادی مورد نیاز، در کشور ممکن نخواهد بود. بهعلاوه، با توجه به ظرفیتها و توانمندیهای هوش مصنوعی، کاربست هوش مصنوعی بدون نظارت و راهبری صحیح، میتواند آسیبها و خطرات متعددی ازجمله آسیبهای اجتماعی و اخلاقی قابلتوجهی ایجاد کند.
مجموع این تدابیر در مواجهه با هوش مصنوعی ازجمله برنامهریزی، رصد و ارزیابی، اجرا و تدبیر سازوکار و فرایند، نهاد و تقسیم وظایف، قوانین و مقررات، اصول و چارچوبها و... را حکمرانی هوش مصنوعی مینامیم. هدف حکمرانی هوش مصنوعی، بسترسازی و تسهیل توسعه این فناوری با ایجاد توازن بین نوآوری و ملاحظات قانونی، شرعی و اخلاقی بهنحوی است که اطمینان حاصل شود که در کنار بهرهمندی حداکثری از توانمندیهای روزافزون این فناوری، سیستمهای هوش مصنوعی، کرامت و حقوق اساسی انسان و جوامع را نقض نمیکنند.
حکمرانی هوش مصنوعی به چارچوبی اشاره دارد که تضمین میکند ابزارها و سیستمهای هوش مصنوعی ایمن و اخلاقی هستند و در ادامه نیز بر همین منوال باقی خواهد ماند. حکمرانی هوش مصنوعی میتواند شامل قانون و مقررهگذاری، استانداردسازی، تنظیمگری، خطمشیگذاری، نهادسازی، حمایت، تسهیلگری و بسترسازی، بازدارندگی و جرمانگاری و... باشد که میتواند مسیر کاربست، تحقیقات و توسعه هوش مصنوعی را برای اطمینان از رعایت عدالت، آزادی، کرامت، انصاف و احترام به نسبت به حقوق شهروندان، هدایت کند[11].
همچنین حکمرانی هوش مصنوعی شامل مکانیسمهای نظارتی میشود که خطراتی مانند تعصب یا جانبداری، نقض حریم خصوصی، تشدید نابرابریها، نقص آزادیهای مدنی و سوءاستفاده را مورد بررسی قرار میدهد و درعینحال، نوآوری و اعتماد را تقویت میکند. یک رویکرد اخلاقی برای حکمرانی هوش مصنوعی، مستلزم مشارکت طیف گستردهای از ذینفعان، ازجمله توسعهدهندگان، کاربران، خطمشیگذاران و اخلاقگرایان هوش مصنوعی است تا اطمینان حاصل شود که سیستمهای مرتبط با هوش مصنوعی برای همسویی با ارزشهای جامعه توسعه یافته و استفاده میشوند[12].
همچنین حکمرانی هوش مصنوعی به نقصهای ذاتی ناشی از عنصر انسانی در ایجاد و نگهداری هوش مصنوعی میپردازد. ازآنجاکه هوش مصنوعی یک محصول مهندسی شده و حاصل یادگیری ماشینی بوده که توسط افراد ایجاد شده، مستعد سوگیریها و خطاهای انسانی نیز است. حکمرانی هوش مصنوعی یک رویکرد ساختاریافته برای کاهش این خطرات ارائه کرده و تضمین میکند که الگوریتمهای یادگیری ماشین، نظارت، ارزیابی و بهروزرسانی میشوند تا از تصمیمهای ناقص یا مضر جلوگیری شود[12]. با توجه به رشد سریع و گسترش روزافزون فناوریهای مبتنیبر هوش مصنوعی، پرداختن به حکمرانی بر این فناوریها، اهمیتی دوچندان یافته است. بهدلیل پیچیدگیها و تأثیرات گسترده هوش مصنوعی بر ابعاد مختلف زندگی بشر، ضروری است که مدلهای حکمرانی متناسبی طراحی و پیادهسازی شوند. این مدلها نهتنها باید بتوانند از مخاطرات احتمالی پیشگیری کنند، بلکه باید بهگونهای طراحی شوند که از مزایای بالقوه هوش مصنوعی به نفع جامعه بهرهبرداری کنند. بنابراین ضروری است در ابتدا، ابعاد و مؤلفههای این حکمرانی شناسایی شود.
یک مطالعه سیاستی درباره نقشه راه حوزه خطمشی هوش مصنوعی که در سال 2017 انجام شده نشان میدهد مسائل این حوزه در 5 محور کلان قرار میگیرد [8]:
در ادبیات این حوزه، تعداد کمی از مقالات بهصراحت حکمرانی هوش مصنوعی را تعریف میکنند[19]. تعریف حکمرانی هوش مصنوعی چالشبرانگیز است. زیرا فقدان اجماع آکادمیک در مورد تعریف هوش مصنوعی و عناصر تشکیلدهنده آن وجود دارد[20] و[21].
جدول 1:تعاریف حکمرانی هوش مصنوعی و مضامین آن در ادبیات حکمرانی هوش مصنوعی [22]
تعریف حکمرانی هوش مصنوعی |
مأخذ |
حکمرانی هوش مصنوعی با حفظ تعادل بین تحقق منافع و بهینهسازی سطوح ریسک و استفاده از منابع، به دنبال ایجاد ارزش بهینه در این حوزه است. هدف اصلی اجرای حکمرانی هوش مصنوعی این است که اطمینان حاصل شود که سازمانهای دولتی قادر به انجام مدیریت ریسک، ارائه ارزش، همسویی استراتژیک مدیریت منابع و مدیریت عملکرد هستند تا برای همه ذینفعان ارزش ایجاد کنند. |
[21] |
از منظر ایمنی هوش مصنوعی، حکمرانی سیستمهای هوش مصنوعی مستلزم حل چالش همسویی ارزشهاست که هدف آن پیادهسازی سیستمهای هوش مصنوعی است تا با ارزشهای اخلاقی انسانی همسو باشند. |
[23] |
حکمرانی هوش مصنوعی را میتوان بهعنوان ابزارها، راهحلها و اهرمهای مختلفی که بر توسعه برنامههای مبتنیبر هوش مصنوعی تأثیر میگذارند، توصیف کرد. برخی از نمونهها عبارتند از: ارتقای چارچوبهای هنجاری، اخلاقیات و ارزشها (که ممکن است به شکل خودتنظیمی ازسوی شرکتهای پیشرو فناوری که روی پروژههای خاصی کار میکنند ارائه شود)، تحقیق در مورد آثار، پیامدها و راهحلهای ممکن برای استفاده از هوش مصنوعی، افزایش آگاهی برای ذینفعان، تولید راهحلهای فنی که با مسائل خاصی که توسط فناوری هوش مصنوعی مطرح میشود (مانند تفسیرپذیری الگوریتمی و توضیحپذیری که توانایی درک دقیق نحوه تصمیمگیری یک الگوریتم است) و اجرای اقدامات قانونی و ایجاد نهادهای رسمی نظارتی که صلاحیت اداره فناوریها و زمینههای مرتبط با هوش مصنوعی را دارند. |
[24] |
مجموعه رو به رشدی از ادبیات که پرسشهای مربوط به هوش مصنوعی و چارچوبهای اخلاقی، قوانین حاکم بر تأثیر هوش مصنوعی و روباتیک، رویکردهای فنی مانند ارزیابی تأثیر الگوریتمی و ایجاد قابلیت اعتماد از طریق اعتبارسنجی سیستم را پوشش میدهد. این سه نیروی راهنما در حکمرانی هوش مصنوعی (قانون، اخلاق و فناوری) میتوانند مکمل یکدیگر باشند. |
[25]
|
«حکمرانی هوش مصنوعی شامل ملاحظات سیاسی، نظامی، اقتصادی، حاکمیتی و اخلاقی و ابعاد پیچیده است که هوش مصنوعی پیشرفته در جامعه ایجاد میکند. حکمرانی هوش مصنوعی را میتوان به اجزای دیگر یعنی «چشمانداز فنی، حکومت آرمانی و خطمشی هوش مصنوعی» تفکیک کرد. |
[26] |
الیمن و کستر در سال 2019 دیدگاه متفاوتی را اتخاذ کردند. آنها با بیان اینکه حکمرانی هوش مصنوعی بر پرداختن به الزامات اخلاقی جامعه، با تأکید ویژه بر همسویی ارزشهای انسانی با اجرای هوش مصنوعی متمرکز است، بر (اهمیت) ارزشهای اجتماعی و اخلاقی تأکید کردند[23]. زادجالی، در سال 2020 بر نقش دولتها در رابطه با مفهومپردازی حکمرانی هوش مصنوعی تأکید کرد و اظهار داشت که این شامل ظرفیت سازمانهای حاکمیتی برای ایجاد ارزش برای همه ذینفعان از طریق عملکردهای نظیر همسویی ارزش و مدیریت عملکرد است[27].
سه موضوع تکرارشونده از ادبیات حوزه حکمرانی هوش مصنوعی استخراج شده است که میتوان آنها را جزو مؤلفههای حکمرانی هوش مصنوعی دانست که عبارتند از:
۱. حکمرانی فناوری
موضوع حکمرانی فناوری، متمرکز بر دادهها و الگوریتمهایی است که پایههای فناوریهای هوش مصنوعی هستند و همچنین چالشهای حاکمیتی مرتبط با ویژگیهای فنی سیستمهای هوش مصنوعی را مورد بحث قرار میدهد. ادبیات بررسی شده شامل مطالعات متعددی است که چارچوبهایی را برای حکمرانی هوش مصنوعی با محوریت دادهها و الگوریتمها توسعه میدهند و از حوزههایی مانند ایمنی هوش مصنوعی و نوآوری مسئولانه استفاده میکنند[28] و [29].
دیدگاه فناوری شامل سه سطح بههمپیوسته است: دادهها، الگوریتمها و سیستمهای هوش مصنوعی. سیستمهای هوش مصنوعی با بهرهگیری از الگوریتمها براساس دادهها یاد میگیرند و تطبیق مییابند. بنابراین جای تعجب نیست که «حکمرانی داده» بهعنوان یک ستون کلیدی «حکمرانی هوش مصنوعی» در نظر گرفته شود[30]. مطالعاتی که بر حکمرانی داده متمرکز شدهاند، موضوعاتی مانند حریم خصوصی دادهها، حفاظت قانونی و یکپارچگی را مورد بحث قرار دادهاند که جزء لاینفک ابتکارات عملی حکمرانی هوش مصنوعی هستند[31]. علاوهبر این، نقش دادههای آموزشی به صراحت در ادبیات مورد بحث قرار میگیرد تا از عملکرد مناسب سیستمهای هوش مصنوعی اطمینان حاصل شود.
برای مثال، استفاده از مجموعه دادههای آموزشی متعدد بهطور بالقوه میتواند پاسخگویی را بهبود بخشد و دادههای موجود در رسانههای اجتماعی، گزارشهای مربوط به اقدامات بشردوستانه و تخلفات اخلاقی توسط نهادهای عمومی را میتوان برای تسهیل خودآموزی سیستمهای هوش مصنوعی برای رفتار اخلاقی مورد استفاده قرار داد[32].
شفافیت، توضیحپذیری و غیرقابل بررسی بودن الگوریتمها، چالشهای مهمی در حکمرانی هوش مصنوعی هستند. ازاینرو، الگوریتمها و دادههای مورد استفاده برای توسعه و آموزش مدلهای هوش مصنوعی در مطالعات بررسیشده، با تأکید بر پاسخگویی، شفافیت و توضیحپذیری مدلها و الگوریتمهای هوش مصنوعی مورد بحث قرار گرفتهاند[33]. علاوهبر این، شفافیت الگوریتمها و سیستمهای هوش مصنوعی در اصول، دستورالعملهای نظارتی و اسناد موجود، وضعیت حیاتی دارد. مشکلات «جعبه سیاه» و کدورت توسط محققان بهعنوان چالشهای حکمرانی هوش مصنوعی درک میشوند که نیاز به راهحلهای فنی دارند[29] و [34].
علاوهبر شفافیت، حکمرانی هوش مصنوعی با مسائل مربوط به عدالت و آسیبهای احتمالی نیز سروکار دارد و الگوریتمهای هوش مصنوعی بهطور بالقوه میتوانند پیامدهای نامطلوب اجتماعی متعددی ایجاد کنند[30].
بنابراین نگرانیهایی در مورد سوءاستفاده و تبعیض احتمالی مرتبط با سیستمهای هوش مصنوعی مطرح میشود. موضوعات مرتبط با «سوگیری»، یکی دیگر از نگرانیهای کلیدی در ادبیات حکمرانی هوش مصنوعی است[33]. برای مثال، فرض بر این است که سوگیری در هوش مصنوعی میتواند بهدلیل طراحی، کد یا دادههای آن، ایجاد شود و هر منبع سوگیری نیاز به یک رویکرد کاهش یا اصلاح متمایز دارد.
چنین تلاشهایی در مقابل حکمرانی هوش مصنوعی میتواند قابلیت اطمینان در سیستمهای هوش مصنوعی را تأیید کند و منافع ذینفعان (مانند مصرفکنندگان و شهروندان) را که تحت تأثیر آن قرار دارند، متعادل کند[29]. درحالیکه این تصور رایج است که سیستمهای هوش مصنوعی جعبههای سیاه غیرقابل کاوش هستند، کرول (2018) پیشنهاد کرد که این سیستمها اساساً قابل درک هستند و تصور فعلی غیرقابل تشخیص بودن هوش مصنوعی میتواند ناشی از پویایی قدرت موجود در این حوزه باشد[35].
۲. ذینفعان
ذینفعان بهعنوان موضوع دوم، به بازیگران و نقشهای درگیر در توسعه، استقرار و اداره سیستمهای هوش مصنوعی اشاره دارد. در لایه کلان، ذینفعان حکمرانی هوش مصنوعی، وزارتخانهها، سازمانها و ادارات هستند که باید با توجه به اهداف برنامههای توسعه ملی، ظرفیت پذیرش ابزارهای مبتنیبر هوش مصنوعی را در خود ایجاد کرده، فراگردهای دولتی را بهبود بخشند و با ارتقای توانمندی امنیتی، حافظ امنیت اطلاعات و حریم خصوصی شهروندان باشند. ازطرفدیگر قوه مقننه موظف است که با ایجاد یک نظام پویا با هدف تسهیلگری و بازتوزیع صحیح این حوزه، بهصورت مستمر و دائمی، قواعد و قوانین زمین بازی حکمرانی هوش مصنوعی را با هدف بهبود مستمر این حوزه، تغییر دهد.
هنگام بحث در مورد پویایی ذینفعان حکمرانی هوش مصنوعی، مطالعات بررسی شده نشان میدهد که تخصص فنی و قدرت عمدتاً در میان تعداد کمی از بازیگران، بهویژه در شرکتهای فناوری بزرگ با مجموعه دادههای گسترده یافت میشود[34]. عدم تعادل قدرت بین بازیگرانی که مشخصات سیستمهای هوش مصنوعی را تعیین میکنند (یعنی مقررات، هنجارهای سازمانی و شرکتها) و متخصصانی که آنها را اجرا میکنند، وجود دارد. این موضوع میتواند به تخصیص نامتعادل مسئولیتهای حکمرانی هوش مصنوعی بین ذینفعان تبدیل شود که در آن ممکن است به نفع سازمانهای خصوصی، بهویژه سازمانهایی که در اقتصادهای توسعه یافتهتر مستقر هستند، اعمال شود[36].
علاوهبر توزیع نابرابر دانش فنی و قدرت، سلسلهمراتب دیگری نیز بین ذینفعان مختلف حکمرانی هوش مصنوعی وجود دارد [28] و [36]. این سلسلهمراتب شامل میزان نفوذ، مسئولیتها و سطوح پاسخگویی متفاوت آنهاست. برای مثال، نهادهای بزرگتر مانند دولتها معمولاً با ایجاد و اصلاح دستورالعملهای موجود، نقش نظارتی قویتری در حکمرانی هوش مصنوعی ایفا میکنند [34].
۳. مقررات و فرایندها
موضوع سوم به قانون و مقررهگذاری و تنظیمگری در حکمرانی هوش مصنوعی اشاره دارد. مقررات موجود برای حکمرانی هوش مصنوعی شامل قوانین سخت (قانون الزامآور) و رویکردهای حکمرانی نرم، ازجمله استانداردها، گواهیها، ممیزیهاست[37]. قوانین سخت، مانند قوانین ضد تبعیض و مقررات حفاظت از دادههای عمومی اتحادیه اروپا، پایههای نظارتی ضروری حکمرانی هوش مصنوعی هستند[38].
مکانیسمهای حکمرانی نرم (مانند استانداردها)، درجات کمتری از رسمیت نهادی و انعطافپذیری بیشتری نسبت به قوانین سخت دارند. استانداردسازی اجرای عملی حکمرانی هوش مصنوعی در مراحل شکلگیری خود است[39]. سازمان بینالمللی استاندارد ISO و IEEE دو نهاد مهم استانداردسازی در حکمرانی هوش مصنوعی هستند. بر این اساس، ایزو، یک گروه کاری برای قابلیت اطمینان هوش مصنوعی راهاندازی کرده است تا به شفافیت و قابلیت ردیابی هوش مصنوعی رسیدگی کند. بهطور مشابه، IEEE سری استانداردهای P7000 را ایجاد کرده که P7001 مربوط به استانداردسازی شفافیت سیستمهای مستقل و تعیین دلایل تصمیمگیری آن است[39]. چنین استانداردهایی میتوانند توسط ذینفعان گوناگون برای توسعه سطوح شفافیت قابل اندازهگیری استفاده شوند.
حکمرانی نرم همچنین شامل اصولی مانند استحکام فنی، امنیت دادهها، حریم خصوصی، قابلیت اطمینان، شفافیت، انصاف و مسئولیتپذیریاست [1].
در ادامه جهت ادراک بهتر مفاهیم فوق، بهصورت خلاصه، به مواردی از «حکمرانی هوش مصنوعی» در جهان اشاره میشود.
5.نگاهی به وضعیت کنونی حکمرانی هوش مصنوعی در جهان
در این بخش بهصورت گذرا، رویکردها و فعالیتهای پنج مورد مطالعاتی در حوزه حکمرانی هوش مصنوعی بیان میشود که شامل: اتحادیه اروپا، آمریکا، چین، هند و سنگاپور است.
ازآنجاکه بخشهای گوناگون حاکمیت نیز با مقوله هوش مصنوعی سروکار دارند، آنها نیز با ابهامات اخلاقی و قانونی جدیدی مواجه خواهند بود. اندیشکدهها، سازمانهای تحقیقاتی و سایر گروهها در حال ارائه توصیههایی به خطمشیگذاران در مورد چگونگی اطمینان از استفاده مسئولانه و اخلاقی از هوش مصنوعی هستند. قانون مهم حفاظت از دادههای عمومی اتحادیه اروپا (GDPR) که در سال 2018 اجرایی شد، نمونهای از این تلاشهای آغازین بود و به قانون جامع AI ACT اتحادیه اروپا منتهی شد. برخی از کشورها، اصولی را برای هوش مصنوعی تدوین کردهاند، درحالیکه برخی دیگر در حال تهیه پیشنویس قوانین و مقررات هستند. کاسینز نیومن میگوید: «برنامههای خاص کاربردی مبتنیبر هوش مصنوعی وجود دارد که ممکن است بهقدری برای گروههایی از مردم مضر باشد که فرایندهای خود تنظیمی صنعت کافی نباشد. دولتها در حال بیدار شدن از این واقعیت هستند که باید در مورد این موضوع به روشی کاملاً جامع فکر کنند». براندون پرسل، تحلیلگر اصلی در Forrester Research، میافزاید: «قانونگذاران باید به فناوریها برسند» و تکنولوژی با سرعت سرسامآوری در حال حرکت است.
در این بخش از گزارش به تفکیک مواردی از مواجهه کشورها با بحث حکمرانی هوش مصنوعی بیان شده است. پرداخت بهمقوله حکمرانی هوش مصنوعی، به مانند خود هوش مصنوعی، بهصورت مستمر و دائمی در حال توسعه و پیشرفت است. درحالیکه برخی از کشورها، لوایح و قوانین سیاستی در حوزه حکمرانی هوش مصنوعی تدوین کردهاند، بخش قابلتوجهی از کشورهای جهان، همچنان در مرحله پژوهش و مطالعه این مهم هستند.
اتحادیه اروپا، خود را بهعنوان یک پیشرو جهانی در بحث حکمرانی هوش مصنوعی معرفی کرده است. مقررات عمومی حفاظت از دادهها (GDPR) در سال 2018 اجرایی شد و دامنه آن به برخی از سازمانهای خارج از اتحادیه اروپا نیز گسترش یافت[41].
تعدادی از کشورهای اروپایی نیز در حال بررسی مقررات خود هستند و گامهای اولیه را برای اعمال سیاستها برداشتهاند. استفاده از هوش مصنوعی در اتحادیه اروپا توسط قانون اقدام هوش مصنوعی، اولین قانون جامع هوش مصنوعی در جهان، تنظیم شده است. اتحادیه اروپا بهعنوان بخشی از استراتژی دیجیتال خود میخواهد هوش مصنوعی را تنظیمگری کند تا شرایط بهتری را برای توسعه و استفاده از این فناوری نوآورانه تضمین کند.
مجموعه قوانین AI Act، به دنبال توسعه ایمن هوش مصنوعی است و بر خطرات مرتبط با کاربست چنین فناوریای تأکید میکند. اتحادیه اروپا در آوریل سال 2021 پیشنویس قانون هوش مصنوعی (AI Act) را ارائه کرد. این قانون، اولین تلاش جامع در سطح جهانی برای تنظیمگری هوش مصنوعی بوده و هدف آن اطمینان از ایمنی و احترام به حقوق اساسی افراد است. این قانون با هدف تقویت زیرساختهای یک زیستبوم قابل اعتماد برای توسعه هوش مصنوعی مسئول، طراحی و تصویب شده است. این چارچوب باید تضمین کند که سامانههای هوش مصنوعی داخل اتحادیه اروپا با امنیت و رعایت قوانین موجود در مورد حقوق اساسی و ارزشهای اتحادیه سازگار باشند؛ همچنین تضمین حقوقی را برای تسهیل سرمایهگذاری و نوآوری در زمینه هوش مصنوعی فراهم کند. قانون AI Act، از ۱۲ محور اصلی تشکیل شده که بهشرح زیر است:
جدول 2. مؤلفههای اصلی AIACT [36]
عناوین |
شرح |
موضوع و محدوده |
این مورد، محدوده اعمال قوانین جدید را مشخص میکند و عرضه در بازار، راهاندازی و استفاده از سیستمهای هوش مصنوعی را پوشش میدهد. |
لیست انواع هوش مصنوعی ممنوعه |
تمام سامانههای مبتنیبر هوش مصنوعی را فهرست کرده و توصیف میکند که برای مثال با نقض برخی از حقوق اساسی، بهعنوان ناقض ارزشهای اتحادیه اروپا، غیرقابل قبول تلقی میشوند. |
سامانههای هوش مصنوعی پرخطر |
حاوی قوانین خاصی برای سامانههایی است که ریسک بالایی ایجاد میکنند. طبقهبندی یک سامانه هوش مصنوعی بهعنوان پرخطر، براساس هدف مورد نظر سامانه هوش مصنوعی است. |
تعهدات شفافیت |
درباره تعهدات شفافیت سامانههایی است که مستقیماً با انسانها تعامل دارند؛ که برای مواردی مانند تشخیص احساسات یا تعیین ارتباطات اجتماعی براساس دادههای بیومتریک یا تولید داده استفاده میشوند. |
حمایت از نوآوری |
به هدف ایجاد یک چارچوب قانونی که مانع نوآوری نمیشود کمک میکند. |
سیستمهای حکمرانی |
· تنظیمگری سامانههای حکمرانی، در سطح اتحادیه ملی و اروپا، · تسهیلگری در بحث نظارت کمیسیون اروپا و مقامات ملی، · تعیین تعهدات نظارت و گزارش برای ارائهدهندگان هوش مصنوعی. |
تعهدات داوطلبانه |
چارچوبی برای تشویق ارائهدهندگان سامانههای هوش مصنوعی غیرخطرناک بهمنظور اعمال داوطلبانه الزامات سیستمهای پرخطر. |
جریمهها، بهروزرسانیها، تفویض قدرت |
· قوانینی را برای تبادل اطلاعات بهدست آمده تعیین میکند. · قوانینی را برای اعمال تفویض اختیارات و اختیارات اجرایی تعیین میکند. · اینکه شامل تعهدی برای کمیسیون اروپا برای ارزیابی منظم نیاز به بهروزرسانی و تهیه گزارشهای منظم در مورد ارزیابی و بازنگری مقررات است. |
ماخذ: پارلمان اروپا، 2023.
دفتر سیاست علم و فناوری کاخ سفید در زمان رئیسجمهور اسبق باراک اوباما مجموعهای از کارگاههای آموزشی در مورد هوش مصنوعی برگزار کرد که منجر به انتشار دو مقاله در سال 2016 شد: «برنامه استراتژیک تحقیق و توسعه هوش مصنوعی ملی» و «آمادهسازی برای آینده هوش مصنوعی».
هدف از برنامه استراتژیک تحقیق و توسعه ملی هوش مصنوعی، هدایت سرمایهگذاری در تحقیق و توسعه هوش مصنوعی است تا اطمینان حاصل شود که آمریکا در این زمینه یک رهبر جهانی باقی میماند. این سند بر روی تحقیقات بلندمدت هوش مصنوعی تمرکز دارد که ممکن است فوراً برای صنعت سودآور نباشد و بنابراین نیاز به حمایت دولت دارد.
این طرح، هفت اولویت استراتژیک را برای تحقیقات هوش مصنوعی با بودجه فدرال ترسیم میکند:
این سند که توسط شورای ملی علم و فناوری (NSTC) تهیه شده، مزایا و خطرات بالقوه فناوریهای هوش مصنوعی (AI) را تشریح کرده و توصیههایی را برای دولت آمریکا پیشنهاد میکند. همچنین پیشنهادهایی برای آمادگی در برابر نقش مهمی که هوش مصنوعی در آینده ایفا میکند، ارائه کرده است. این سند، چندین مزیت بالقوه هوش مصنوعی را برجسته میکند، ازجمله:
این سند چندین توصیه به دولت آمریکا برای رسیدگی به خطرات و فرصتهای بالقوه هوش مصنوعی ارائه میکند، ازجمله:
بهطورکلی، این سند بر اهمیت آمادهسازی برای آینده هوش مصنوعی بهگونهای تأکید میکند که مزایای بالقوه آن را به حداکثر برساند و خطرات بالقوه آن را کاهش دهد.
در چند سال گذشته، چین قوانین و مقررات ملی الزامآوری را در مورد هوش مصنوعی (AI) وضع کرده است. این مقررات، توصیههایی را نیز در جهت تنظیمگری انتشار محتوا (اعم از متون، تصاویر و ویدئوهای تولید شده مصنوعی و سیستمهای هوش مصنوعی مانند چت جیپیتی) ارائه میکنند. این قوانین، الزامات جدیدی را برای نحوه ساخت و استقرار الگوریتمها و همچنین برای اطلاعاتی که توسعهدهندگان هوش مصنوعی باید برای دولت و مردم افشا کنند، ایجاد میکند. این اقدامات، زمینههای فکری و بوروکراتیک را برای یک قانون جامع ملی هوش مصنوعی ایجاد میکند که چین احتمالاً در سالهای آینده منتشر خواهد کرد که احتمالاً یک پیشرفت بالقوه مهم برای حکمرانی جهانی هوش مصنوعی خواهد بود.
دولت فدرال هند، در ژوئن سال 2018 یک استراتژی ملی هوش مصنوعی را به تصویب رساند که الزام میکند که یک مرکز مطالعاتی در زمینه پایداری فناوری برای رسیدگی به مسائل مربوط به اخلاق، حریم خصوصی و موارد دیگر راهاندازی شود. استراتژی ملی هند برای حکمرانی هوش مصنوعی با تأکید بر مفهوم «هوش مصنوعی برای همه» به دنبال هدایت مسیر توسعه و پذیرش هوش مصنوعی در کشور است. هدف این سند راهبردی استفاده از هوش مصنوعی برای رشد فراگیر و در ادامه نیز قرار دادن هند بهعنوان یک بازیگر جهانی در بحث حکمرانی هوش مصنوعی است. این سند، پنج بخش دارای اولویت را (که هوش مصنوعی در آن دارای پتانسیل تأثیر اجتماعی و اقتصادی قابلتوجهی در هند است) مورد هدف قرار داده است:
دولت فدرال سنگاپور، چارچوبی برای حکمرانی هوش مصنوعی در ژانویه سال 2019 منتشر کرد و راهنماییهایی را به بخش خصوصی در مورد چگونگی رسیدگی به مسائل اخلاقی ناشی از استفاده از هوش مصنوعی ارائه داد. هدف سند استراتژی ملی هوش مصنوعی سنگاپور، تبدیل این کشور بهعنوان یک بازیگر جهانی در توسعه و استقرار راهحلهای هوش مصنوعی است. این استراتژی بر رویکردهای کلان کل کشور تأثیر دارد و به دنبال تغییر اقتصاد، جامعه و دولت سنگاپور از طریق پذیرش هوش مصنوعی است.
جدول زیر خلاصهای از رویکردهای کلیدی، فعالیتها و قواعد اصلی و اهداف و نتایج مورد انتظار از حکمرانی هوش مصنوعی در پنج کشور/ منطقه مختلف را نشان میدهد. هر کشور/ منطقه با توجه به نیازها و اولویتهای خود، رویکردها و مقررات متفاوتی را برای مدیریت و استفاده مسئولانه از هوش مصنوعی اتخاذ کرده است.
جدول 3. جمعبندی وضعیت کنونی حکمرانی هوش مصنوعی در جهان
کشور/منطقه |
رویکرد حکمرانی هوش مصنوعی |
فعالیتها و قواعد کلیدی |
اهداف و نتایج مورد انتظار |
نقاط قوت و ضعف |
اتحادیه اروپا |
|
|
|
نقاط قوت: چارچوب قانونی جامع و جهانی برای هوش مصنوعی، تمرکز بر حقوق اساسی و ایمنی، پیشرو در تدوین مقررات. |
آمریکا |
|
|
|
نقاط قوت: رهبری در تحقیق و توسعه، تمرکز بر نوآوری و رشد اقتصادی، همکاری با بخش خصوصی برای توسعه فناوری. |
چین |
|
|
|
نقاط قوت: توانایی در تنظیمگری سریع و دقیق، کنترل قوی بر اطلاعات و محتوا، توسعه سریع صنعت هوش مصنوعی داخلی. |
هند |
|
|
|
نقاط قوت: مرکز بر استفاده گسترده و اجتماعی از هوش مصنوعی، تلاش برای رشد فراگیر و کاهش نابرابریها، توسعه نیروی کار متخصص. |
سنگاپور |
|
|
|
نقاط قوت: رویکرد پیشرفته و جامع به حکمرانی هوش مصنوعی، تمرکز بر آموزش و آگاهیبخشی، زیرساختهای قوی دیجیتال. |
6.نگاهی آماری بهمقوله حکمرانی هوش مصنوعی در جهان
در این بخش، پس از بررسی تعدادی از مهمترین بازیگران و فعالان حوزه حکمرانی هوش مصنوعی، در راستای تکمیل موردکاوی حکمرانی هوش مصنوعی در سطح جهانی، آمارهای بینالمللی این حوزه به تفکیکهای ذیل به نمایش درآمده است.
شاخص هوش مصنوعی دانشگاه استنفورد، تجزیه و تحلیلی از قوانین تصویب شده توسط نهادهای قانونگذاری در 127 کشور انجام داد که حاوی کلمه «هوش مصنوعی» از سال 2016 تا 2022 است. از 127 کشور مورد تجزیهوتحلیل، از سال 2016، 31 کشور حداقل یک لایحه در حوزه هوش مصنوعی به تصویب رسانهاند و مجموعاً 123 لایحه مربوط به هوش مصنوعی را تصویب کردهاند.
شکل زیر نشان میدهد که از سال 2016 تا 2022، تعداد کل لوایح مربوط به هوش مصنوعی افزایش شدیدی داشته شد و به 37 لایحه تصویب شده در سال 2022 رسیده است.
شکل 1. تعداد لوایح مربوط به هوش مصنوعی به تفکیک کشورها، 2022– 2016 [37]
شکل زیر نشاندهنده تعداد قوانینی هستند که در سال 2022 در مورد هوش مصنوعی به تصویب رسیدند. آمریکا با 9 قانون در صدر فهرست قرار گرفت و پس از آن اسپانیا و فیلیپین که به ترتیب 5 و 4 قانون تصویب کردند.
شکل 2. نمودار تعداد لوایح مربوط به هوش مصنوعی که در کشورهای منتخب به تصویب رسیده است، 2016-2022 [37]
جدول زیر مؤلفههایی از حکمرانی هوش مصنوعی را در کشورهای مختلف بررسی کرده است.
جدول 4: حکمرانی هوش مصنوعی در چند کشور منتخب در سال 2022 [37]
کشور |
نام لایحه |
تشریح |
جمهوری قرقیزستان |
درباره پارک صنایع خلاق |
این سند، وضعیت قانونی، مدیریت و رویههای عملیاتی پارک صنایع خلاق را تعیین میکند که برای تسریع توسعه صنایع خلاق ازجمله هوش مصنوعی ایجاد شده است. |
لتونی |
اصلاحات قانون امنیت ملی |
مفاد این قانون، محدودیتهایی را برای شرکتهای تجاری، انجمنها و بنیادهای مهم برای امنیت ملی، ازجمله یک شرکت تجاری که هوش مصنوعی را توسعه میدهد، ایجاد میکند. |
فیلیپین |
قانون کمیسیون دوم کنگره در مورد آموزش |
کنگره طبق مفاد این قانون، یک کمیسیون خاص برای بررسی، ارزیابی و ارزیابی وضعیت آموزش فیلیپین ایجاد میکند. این قانون خواستار اصلاحاتی برای مقابله با چالشهای جدید آموزش و پرورش ناشی از انقلاب صنعتی چهارم است که تا حدی با توسعه سریع هوش مصنوعی مشخص میشود. چالشهای استفاده از هوش مصنوعی در آموزش در فیلیپین شامل موارد زیر است:
|
اسپانیا |
حق رفتار برابر و عدم تبعیض |
یک مفاد این قانون مقرر میدارد که الگوریتمهای هوش مصنوعی درگیر در تصمیمگیریهای ادارات دولتی، هر زمان که از نظر فنی امکانپذیر باشد، معیارهای به حداقل رساندن سوگیری، شفافیت و پاسخگویی را در نظر میگیرند. |
آمریکا |
قانون آموزش هوش مصنوعی |
این لایحه، اداره مدیریت و بودجه را ملزم میکند تا یک برنامه آموزشی مختص هوش مصنوعی برای جذب نیروی کار سازمانهای اجرایی (برای مثال، کسانی که مسئول مدیریت برنامه یا تدارکات هستند)، را طراحی کند. هدف از این برنامه این است که اطمینان حاصل شود که نیروی کار، از توانایی ها و خطرات مرتبط با هوش مصنوعی آگاهی دارد. |
شکل زیر تعداد کل موارد ذکر شده «هوش مصنوعی» در رویههای قانونی کشورها در هفت سال گذشته را نشان میدهد. از 81 کشور در نظر گرفته شده، 62 کشور حداقل یک بار از لفظ «هوش مصنوعی» استفاده کردهاند و بریتانیا با 1092 بار استفاده، بر این لیست غالب است و پس از آن اسپانیا (832)، آمریکا (626)، ژاپن (511) و هنگ کنگ (478) قرار دارند.
شکل 3. تعداد ذکر کلمات «هوش مصنوعی» در رویههای قانونی به تفکیک کشور، 2022- 2016(همان)
شکل 4: کشورهای دارای سندهای راهبردی حکمرانی هوش مصنوعی (همان)
7.الزامات طراحی مدل حکمرانی هوش مصنوعی
در این بخش، پس از مطالعه مفهوم حکمرانی هوش مصنوعی و موردکاوی آن، با توجه به اهمیت و لزوم وجود رویکرد بومی و منطقهای به حکمرانی هوش مصنوعی، به بررسی الزامات طراحی مدل حکمرانی هوش مصنوعی بررسی شده است.
هنگام بررسی مدلهای حکمرانی هوش مصنوعی با رویکردی آیندهنگر که به موضوعاتی مانند عدالت، امنیت، حریم خصوصی، جابهجایی نیروی کار و مالیات میپردازند، لازم است فراتر از این موضوعات رایج رفته و به چالشهای ساختاری و الزامات مهمتری که در برخورد با فناوریهای هوش مصنوعی وجود دارند، توجه کرد. در ادامه، سه چالش اساسی بررسی میشود که باید در طراحی مدلهای حکمرانی هوش مصنوعی مدنظر قرار گیرند [11]. این سه چالش کلیدی در طراحی این مدلهای حکمرانی بررسی میشود: عدم تقارن دانشی، یافتن اجماع هنجاری و عدم تطبیقپذیری دولت.
در میان تمام بازیگران، توجه به این نکته حائز اهمیت است که هر مدل نوظهوری باید در چارچوبهای نهادی موجود قوانین و سیاستهای قابل اجرا، بهویژه قانون اساسی، سیاستهای کلی و یا حتی حقوق اساسی و ارزشهای سازگار با قانون اساسی قرار گیرد و با آن تعامل داشته باشد. زیرا توسعه و استقرار حکمرانی هوش مصنوعی در خلأ صورت نمیگیرد[15]. پس از بررسی چالشها، به سراغ مطالعه یکی از مدلهای قابلتوجه حکمرانی هوش مصنوعی، یعنی «مدل لایهای» میرویم که توسط دانشمندان دانشگاه هاروارد در سال 2017 مطرح شده است.
مقیاس، ناهمگونی، پیچیدگی و میزان استقلال تکنولوژیک سیستمهای هوش مصنوعی نیازمند تفکر جدیدی در مورد سیاست، قانون و مقررات است. گسر و آلمیدا، در مقالهای مدل لایهای حکمرانی هوش مصنوعی را ارائه و تلاش کردهاند ماهیت پیچیده حکمرانی هوش مصنوعی را با استفاده از یک مدل تحلیلی با سه لایه به تصویر بکشد.
لایههای تعاملی از بالا به پایین، بهشرح زیر است:
شکل 5:مدل لایهای برای حکمرانی هوش مصنوعی [42]
شکل 5، نمایشی از مدل حکمرانی لایهای را نشان میدهد. ابزارهای ترسیم شده روی لایهها، به تناسب هر بازه زمانی قابل توسعه هستند. در کوتاهمدت، پیشنهادهای حاکمیتی میتواند بر توسعه استانداردها و اصول الگوریتمهای هوش مصنوعی متمرکز شود. در میانمدت و بلندمدت، دولتها میتوانند روی قوانین خاصی برای تنظیم تعامل ذینفعان حوزه هوش مصنوعی کار کنند. این مدل میتواند یک اکتشاف مفید باشد که نشان میدهد چگونه اصول، خطمشیها، هنجارها و قوانین در پاسخ به چالشها و فرصتهای مبتنیبر هوش مصنوعی میتوانند ترکیب شوند و با هم در لایههای مختلف کار کنند.
لایه فنی، اساس اکوسیستم حکمرانی هوش مصنوعی را تشکیل میدهد. سیستمهای مبتنیبر هوش مصنوعی و سیستمهای خودکار چه فیزیکی باشند مانند خودروهای خودران و روباتهای صنعتی و چه نرمافزاری مانند سیستمهای عدالت کیفری، تشخیص پزشکی یا دستیاران هوشمند، به دادهها و الگوریتمها وابسته هستند [16]. برای الگوریتمهایی که تأثیرات اجتماعی دارند، اصولی مانند مسئولیتپذیری، قابلیت توضیح، دقت، قابلیت حسابرسی و انصاف پیشنهاد شدهاند [17]. همچنین فرایند جمعآوری، استفاده و مدیریت دادهها توسط این الگوریتمها که بهعنوان حکمرانی داده شناخته میشود، باید براساس اصولی باشد که عدالت را تقویت کند و از تبعیض براساس نژاد، رنگ، ملیت، مذهب، جنسیت، ناتوانی یا وضعیت خانوادگی جلوگیری کند.
در بالای لایه فنی، می توان به نگرانیهای اخلاقی پرداخت که برای انواع برنامه ها و سیستم های هوش مصنوعی اعمال می شود. یکی از منابع مهم برای توسعه چنین اصول اخلاقی، اصول مشترکی است که در قوانین بین المللی و ملی به آنها تصریح شده است.
نمونه دیگری از ظهور هنجارهای اخلاق هوش مصنوعی، اصول کلی انجمن مهندسان برق و الکترونیک (IEEE) برای هوش مصنوعی و سیستمهای مستقل است[16].
اقدامات الگوریتمها را میتوان براساس معیارها و اصول اخلاقی مورد ارزیابی قرار داد. برای مثال اگر یک برنامه هوش مصنوعی دادههای یک شرکت بیمه را تحلیل کرده و از گروه خاصی از افراد، براساس عواملی مانند جنسیت یا سن، حق بیمه بیشتری را به تبعیض دریافت کند، چنین تصمیمگیریای برخلاف اصل اخلاقی رفتار برابر و منصفانه است.
لایه اجتماعی و قانونی میتواند به فرایند ایجاد نهادها و تخصیص مسئولیتها برای تنظیم سیستمهای هوش مصنوعی و خودمختار بپردازد. برای مثال، متیو شرر[17] یک نهاد سیاستگذاری را توصیف میکند که قدرت تعریف هوش مصنوعی را دارد، استثناهایی ایجاد میکند که اجازه میدهد تحقیقات هوش مصنوعی در محیطهای خاصی بدون مسئولیت دقیق محققان انجام شود و فرایند صدور گواهی هوش مصنوعی را ایجاد کند. یک نقطه شروع برای هنجارهای خاص با هدف تنظیم هوش مصنوعی، میتواند اصول و معیارهایی باشد که از لایههای اخلاقی و فنی، علاوهبر چارچوبهای قانونی ملی و بینالمللی از قبل موجود و کلیتر، بیرون میآیند.
پیادهسازی ساختارهای حاکمیتی برای هوش مصنوعی و سیستمهای تصمیمگیری الگوریتمی میتواند در چندین لایه رخ دهد و شامل رویکردهای ترکیبی باشد. فرایندهای حکمرانی میتواند از راهحلهای بازارمحور تا ساختارهای مبتنیبر دولت متغیر باشد و میتواند در سطح ملی یا بینالمللی اعمال شود. در سطح منطقهای، یک نمونه مناسب، مقررات عمومی حفاظت از دادهها (GDPR) است؛ یک مقررات گسترده و پیچیده با هدف تقویت و یکسانسازی حفاظت از دادهها برای همه افراد در اتحادیه اروپا. این قانون یک «حق توضیح» ارائه میکند که شرکتها را موظف میکند که هدف یک الگوریتم و نوع دادههایی را که هنگام تصمیمگیری خودکار استفاده میکند، توضیح دهند[18].
در زمینه مسائل حقوقی یکی از چالشهای عمده کشور، عدم وجود کلیدواژههای تخصصی فارسی ناظر به مفاهیم فنی- حقوقی است. این مسئله هرگونه الگوبرداری از قوانین سایر کشورها و قانونگذاری تخصصی در این حوزه را با مشکل و ابهام مواجه خواهد کرد. برای مثال بسیاری از واژگان تخصصی قانون اقدام هوش مصنوعی اتحادیه اروپا مبتنیبر تاصطلاحاتی است که پیش از آن در قوانین قبلی آنها ازجمله مقررات عمومی حفاظت از دادهها تولید شده است و متأسفانه هیچ قانونی در ایران اینگونه مفاهیم را پوشش نداده است. این مسئله میتواند حتی پس از قانونگذاری، به چالشی برای نهادهای داوری و قضایی تبدیل شود و اعمال عدالت را تضعیف کند.
هوش مصنوعی بهعنوان یکی از پیشرفتهترین و تحولسازترین فناوریهای عصر حاضر، در حال ایجاد تغییرات بنیادین در بسیاری از جنبههای زندگی بشر است. این فناوری نهتنها میتواند بهرهوری و کارایی را در حوزههای مختلف ازجمله صنعت، بهداشت، حملونقل و آموزش بهبود بخشد، بلکه فرصتهای جدیدی را برای نوآوری، رشد اقتصادی و توسعه اجتماعی فراهم میآورد. بااینحال، گسترش هوش مصنوعی چالشهای پیچیدهای را در زمینههای اخلاقی، قانونی، فرهنگی و اجتماعی بههمراه دارد که نیازمند تدوین و اجرای چارچوبهای حکمرانی مناسب برای مدیریت و نظارت بر این فناوری است. در این راستا، کشورها باید بهطور فعال به طراحی، تدوین و پیادهسازی این چارچوبها بپردازند تا بتوانند از مزایای هوش مصنوعی بهرهبرداری کرده و همزمان با مدیریت مخاطرات آن، از اثرات منفی احتمالی آن جلوگیری کنند.
بررسی وضعیت کنونی حکمرانی هوش مصنوعی در جهان نشان میدهد که کشورهای مختلف رویکردهای متنوعی را برای پرداخت به این فناوری اتخاذ کردهاند. برای مثال، اتحادیه اروپا با تصویب قانون جامع هوش مصنوع (AI Act)، تلاش دارد تا یک چارچوب قانونی منسجم و قابل اجرا برای توسعه و استفاده مسئولانه از سیستمهای هوش مصنوعی ایجاد کند. این قانون بر اهمیت تضمین ایمنی، شفافیت و احترام به حقوق اساسی افراد تأکید دارد و هدف آن فراهمسازی شرایطی برای توسعه پایدار و مسئولانه هوش مصنوعی است.
در آمریکا، رویکرد حکمرانی بیشتر بر تقویت تحقیق و توسعه و ایجاد نیروی کار ماهر متمرکز شده است. سند استراتژیک تحقیق و توسعه هوش مصنوعی ملی آمریکا، بر نیاز به تحقیقات بلندمدت و ایجاد اصول و استانداردهایی برای تضمین امنیت سیستمهای هوش مصنوعی تأکید دارد. این سند، همچنین بر اهمیت آمادگی برای بهرهبرداری از فرصتهای اقتصادی و مقابله با چالشهای اخلاقی و اجتماعی ناشی از هوش مصنوعی تأکید میکند.
در آسیا، کشورهایی مانند چین و هند نیز در حال تدوین و اجرای برنامههای ملی هوش مصنوعی با تمرکز بر توسعه اقتصادی، اخلاق، حریم خصوصی و تدوین چارچوبهایی برای تنظیمگری هوش مصنوعی هستند. چین با وضع مقررات ملی الزامآور برای هوش مصنوعی، تلاش دارد تا نهتنها کنترل دقیقتری بر توسعه داخلی این فناوری داشته باشد، بلکه بهطور فعال در تدوین استانداردهای جهانی برای حکمرانی هوش مصنوعی مشارکت کند. هند نیز با تأکید بر رویکرد «هوش مصنوعی برای همه»، بهدنبال بهرهگیری از پتانسیل هوش مصنوعی برای رشد فراگیر و توسعه پایدار آن در سطح ملی است.
این نمونهها نشان میدهند که حکمرانی هوش مصنوعی یک مسئله جهانی و چندجانبه بوده که نیازمند همکاری و هماهنگی بینالمللی برای تبادل دانش، تدوین استانداردهای مشترک و تقویت زیرساختهای نظارتی است. کشورها باید از تجربیات یکدیگر در زمینه حکمرانی هوش مصنوعی بهرهبرداری کرده تا بتوانند با چالشهای مشابه بهطور مؤثر مقابله کنند.
تدوین مدلهای حکمرانی مؤثر برای هوش مصنوعی نیازمند توجه به چالشهای ساختاری و الزامات اساسی در این حوزه است. یکی از چالشهای اصلی در این زمینه، عدم تقارن دانشی میان توسعهدهندگان فناوری و سایر ذینفعان ازجمله خطمشیگذاران و مصرفکنندگان است. این عدم تقارن میتواند منجر به سوءتفاهمها، کاهش اعتماد عمومی و مقاومت در برابر پذیرش فناوریهای هوش مصنوعی شود. برای حل این مسئله، مدلهای حکمرانی باید مکانیسمهایی را برای بهبود درک عمومی و افزایش آگاهی در مورد هوش مصنوعی و کاربردهای آن ارائه دهند.
چالش دیگر، یافتن اجماع هنجاری میان ذینفعان مختلف است. مدلهای حکمرانی باید فضای لازم را برای تجزیهوتحلیل هزینه-فایده و ایجاد اجماع هنجاری میان ذینفعان فراهم کنند. این مدلها باید بتوانند با تفاوتهای فرهنگی، اجتماعی و جغرافیایی سازگاری داشته باشند و قابلیت همکاری بین چارچوبها و رویکردهای مختلف را فراهم کنند.
علاوهبر این، عدم تطابق دولتها با تغییرات سریع و پیچیدگیهای فناوریهای هوش مصنوعی یکی دیگر از موانع مهم است. دولتها باید بهسرعت بتوانند با تغییرات و نوآوریهای جدید سازگار شوند و از چارچوبهای تنظیمگری مناسب برای مدیریت این فناوری استفاده کنند. این امر نیازمند ایجاد زیرساختهای قانونی و نهادی است که بتواند با تحولات سریع در حوزه هوش مصنوعی همگام شود و پاسخگوی نیازهای روزافزون جامعه باشد.
8-1. توصیهها و پیشنهادهای سیاستی
با توجه به تحلیلهای انجامشده و بررسی وضعیت کنونی حکمرانی هوش مصنوعی در جهان، چندین توصیه سیاستی برای بهبود حکمرانی هوش مصنوعی در کشور قابل ارائه است:
با توجه به سرعت پیشرفت و گسترش فناوریهای هوش مصنوعی و تأثیرات گسترده آن بر جامعه، لزوم ایجاد یک نظام نوآوری فناورانه برای پرداختن به تسهیلگری و تنظیمگری مقوله هوش مصنوعی، بهعنوان یکی از مؤلفههای اصلی حکمرانی هوش مصنوعی، بیشازپیش احساس میشود. تسهیلگری و تنظیمگری مناسب میتواند به شتابدهی، کنترل و نظارت بر توسعه و کاربردهای هوش مصنوعی کمک کرده و از بروز تخلفات و مخاطرات احتمالی جلوگیری کند. پیشنهاد میشود که یک چارچوب تسهیلگر-تنظیمگر جامع و چندلایه تدوین شود که شامل تمامی ذینفعان و بازیگران مختلف باشد. این چارچوب باید بهگونهای طراحی شود که همگام با پیشرفتهای فناوری، قابل انعطاف و بهروزرسانی باشد و بتواند نیازهای جامعه را در تمامی سطوح برآورده کند.
با این رویکرد، میتوان به توسعه پایدار و مسئولانه هوش مصنوعی دست یافت و ایران را بهعنوان یک کشور پیشرو در زمینه هوش مصنوعی در منطقه و جهان معرفی کرد. تسهیلگری و تنظیمگری جامع و مدبرانه نهتنها به حفاظت از حقوق شهروندان و جلوگیری از سوءاستفاده از فناوری کمک میکند، بلکه میتواند بستری مناسب برای نوآوری و رشد اقتصادی پایدار فراهم آورد.