هوش مصنوعی مولد؛ چالش ها و الزامات توسعه و پیاده سازی

نوع گزارش : گزارش های راهبردی

نویسندگان

1 کارشناس گروه فناوری های نوین دفترمطالعات انرژی، صنعت و معدن مرکز پژوهش های مجلس شورای اسلامی

2 مدیر گروه فناوری های نوین دفتر مطالعات انرژی، صنعت و معدن مرکز پژوهش های مجلس شورای اسلامی

چکیده

هوش مصنوعی مولد، شاخه ای از هوش مصنوعی است که محتوای جدیدی مانند تصاویر، متن، موسیقی یا گفتار را از داده های موجود ایجاد می کند و کاربردهای بالقوه زیادی مانند شخصی سازی تجربیات، ایجاد شبیه سازی های واقع بینانه، ارائه پاسخ و تصمیم به کاربر و تسهیل فرایندها و امور در حوزه های مختلف دارد؛ توانایی این شاخه از هوش مصنوعی در خلق و ایجاد محتواهای جدیدی که از قبل وجود نداشته اند و ورود به حوزه خلاقیت که زمانی ویژگی منحصربه فرد انسان ها محسوب می شد، باعث شده چالش ها و مخاطرات پیش روی توسعه هوش مصنوعی، در حوزه هوش مصنوعی مولد بسیار پر رنگ تر و حساس تر باشد. ازاین رو توجه سیاست گذاران و قانونگذاران به نظام مند کردن هوش مصنوعی به طور عام در کنار توجه به ویژگی های خاص هوش مصنوعی مولد، بر فضای توسعه این حوزه اثرگذار است. یافته های پژوهش نشان می دهد ایجاد زیرساخت های پایدار و ایمن فنی از قبیل استفاده از داده های مصنوعی، یادگیری انتقالی، فنون کاهش سوگیری، محاسبات ابری و توزیع شده می تواند در کاهش چالش های مرتبط با امنیت داده ها، حریم خصوصی، شفافیت، صحت و دقت نتایج و کاهش هزینه های محاسباتی مؤثر باشد. همچنین مدیریت مخاطرات احتمالی هوش مصنوعی به ویژه از نوع مولد آن، با هدف کاهش چالش های اجتماعی ناشی از به کارگیری این فناوری، از طریق تکمیل یا ایجاد زیرساخت های حقوقی و قانونی مرتبط با داده (ازجمله قوانین حریم خصوصی و مدیریت داده در ابعاد مختلف، حقوق داده)، توسعه اصول و مقررات هوش مصنوعی مسئولیت پذیر با تمرکز بر استفاده اخلاقی از آن و افزایش سطح سواد دیجیتالی در جامعه (با تمرکز بر اقشار حساس مانند کودکان، نوجوانان، افراد کم سواد و مسن)، حائز اهمیت است. 

گزیده سیاستی

سامان‌دهی و شفافیت مدیریت داده و اطلاعات، ارتقای زیرساخت‌های پردازشی، آموزش و نگهداشت نیروی متخصص و تربیت نیروی کار ماهر در کنار افزایش سواد دیجیتالی ازجمله الزامات توسعه پایدار و مسئولانه هوش مصنوعی مولد است.

کلیدواژه‌ها

موضوعات

خلاصه مدیریتی

بیان / شرح مسئله

هوش‌ مصنوعی مولد نوعی فناوری‌ هوش ‌مصنوعی است که می‌تواند انواع مختلفی از محتوا ازجمله متن، تصویر، صدا و داده‌های مصنوعی تولید کند هیاهوی اخیر در مورد‌ هوش ‌مصنوعی مولد به‌دلیل سادگی رابط‌های کاربری جدید برای ایجاد متن، گرافیک و ویدئوهای با کیفیت بالا در عرض چند ثانیه و همچنین توانایی خلق محتواهایی است که پیش از این وجود نداشته‌اند و درواقع هوش مصنوعی مولد مبدع و مبتکر آن است.

با وجود این پیشرفت‌ها و فراگیری استفاده از کاربردهای‌ هوش ‌مصنوعی مولد، واکنش‌های‌ قابل‌توجهی نیز علیه آن وجود داشته است. زیرا‌ علاوه‌بر دغدغه کشورها نسبت به عقب نماندن در توسعه این فناوری، نگرانی‌های جدی نیز در مورد به‌کارگیری و بهره‌مندی از آن در حال پر رنگ شدن است که‌ ازجمله آنها می‌توان به صحت، دقت، امنیت اطلاعات و ملاحظات اخلاقی اشاره کرد. هرچند نگرانی‌های ذکر شده فقط مرتبط با هوش مصنوعی مولد نیست و کل عرصه‌های هوش مصنوعی‌ به‌طور عام را دربر می‌گیرد، اما ویژگی ایجاد و خلق محتوای جدید بدون دخالت و کنترل انسان و ارائه تصمیمات جدید و پاسخ‌هایی که ممکن است به‌راحتی قابل ارزیابی و صحت سنجی نباشند‌ به کاربران و درنتیجه تأثیرگذاری بالای این فناوری بر قدرت تفکر، انتخاب، تصمیم‌گیری و عملکردهای انسانی که به‌واسطه توانایی‌های هوش مصنوعی مولد ایجاد شده و به‌شدت رو به گسترش است، سطح نگرانی‌ها را افزایش داده است. این ابعاد گسترده، پیچیده و جدید از منظر فنی، اقتصادی، اجتماعی و حتی سیاسی‌، سیاست‌گذاران را به‌سمت تنظیم چارچوب‌ها و اصولی که‌ به‌طورکلی براساس سطح مخاطره انواع هوش مصنوعی منجر به توسعه هدفمند و پایدار فناوری‌های این حوزه شود، سوق داده است. ازاین‌رو در این پژوهش، ملاحظات و الزامات مختلف توسعه هوش ‌مصنوعی که آثار آنها در هوش مصنوعی مولد قابل تأمل و کلیدی است و همچنین پیاده‌سازی آن از منظر فنی و اجتماعی مورد بررسی قرار گرفته است.

 

نقطهنظرات / یافته‌های کلیدی

چالش‌های‌ پیش‌روی توسعه‌ هوش ‌مصنوعی مولد از ابعاد زیر قابل بررسی هستند:

الف) چالش‌های فنی و عملیاتی مرتبط با زیرساخت‌های داده و محاسبات

  • لزوم دسترسی به داده زیاد، با کیفیت و متنوع (با چالش‌هایی‌ مانند‌ پرهزینه بودن، زمانبر و دشوار بودن، کمیاب یا حساس بودن، در چارچوب قوانین مالکیت یا حریم خصوصی بودن).
  • کیفیت و کمیت داده (با چالش‌هایی‌ مانند‌ دسترسی به منابع داده قابل‌اعتماد و معتبر، پیاده‌سازی تکنیک‌های پاک‌سازی و تقویت داده‌ها، ایجاد استانداردهای اخلاقی و قانونی برای حفاظت از داده‌ها).
  • تأمین امنیت و حفاظت از داده‌های داخلی بهکمک توسعه الگوها و کدها (با چالش‌هایی‌ مانند‌ لزوم پایه‌گذاری یک مدل زبانی بزرگ بر روی مجموعه‌ای از حقایق خارجی و قابل‌تأیید، حفظ حریم خصوصی، امنیت و انطباق داده‌ها و رعایت قوانین و مقررات حفاظت از داده‌ها) .
  • بررسی عملکرد و ارزیابی مدل (با چالش‌هایی‌ مانند‌ امکان بهینه کردن مقیاس‌پذیری و کارایی و توسعه معیارهایی برای دریافت بازخورد کاربر نسبت به خروجی‌ها).
  • کاهش سوگیری داده‌های آموزشی و قابلیت توضیح و اعتماد مدل (با چالش‌هایی‌ مانند‌ شفافیت و پاسخ‌گو کردن مدل، توسعه روش‌های اجتناب از سوگیری، اصلاح و خودکنترلی مدل).
  • تأمین زیرساخت‌های سخت‌افزاری و نرم‌افزاری محاسباتی (با چالش‌هایی‌ مانند‌ توسعه زیرساخت‌های ارتباطات، ابرسامانه‌های پردازشی و ذخیره‌سازی داده‌های بزرگ در کنار بحث آموزش و محاسبات استنتاج).
  • تأمین انرژی مورد نیاز برای محاسبات و چالش رد پای کربن (با چالش‌هایی‌ مانند‌ مصرف زیاد انرژی و انتشار کربن به‌علت حجم بالای پردازش).

  

ب) چالش استفاده و پیاده‌سازی فناوریهای هوش ‌مصنوعی مولد در کسب‌وکارها

  • پیچیدگی فنی راه‌اندازی و استفاده (با چالش‌هایی‌ مانند‌ عدم ظرفیت تجهیزاتی سازمان‌ها برای راه‌اندازی این‌ مدل‌های بزرگ، گران بودن منابع محاسباتی و پردازشی، عدم تمایل کسب‌وکار به راه‌اندازی و استفاده دائم).
  • مقاومت سیستم‌های قدیمی در برابر فناوری‌های جدید (با چالش‌هایی‌ مانند‌ ابهام، تضاد یا تعارض سازمان نسبت به نحوه مدیریت و کارکرد سیستم‌های فعلی و وظیفه‌های رایج خود در مقابل روش نوین‌، مقاومت بدنه برای پذیرش، افزایش هزینه سازمان به‌دلیل لزوم آموزش نیروها در به‌کارگیری این فناوری و نیز هدایت بخشی از نیروها جهت راه‌اندازی مرکزی برای اجرا، هماهنگی و نظارت).
  • ابهام در مدل‌های اقتصادی و امکان ایجاد بدهی فنی (با چالش‌هایی‌ مانند‌ توجیه سرمایه‌گذاری در انواع مدل‌های‌ هوش ‌مصنوعی و کاهش هزینه‌ها در بخش‌های دیگر که جبران‌کننده هزینه‌کرد در این زمینه باشد).
  • تغییر شکل بخشی از نیروی کار کسب‌وکارها (نگرانی‌های مربوط به از دست دادن شغل و لزوم ایجاد مشاغل جدید متناسب برای همان افراد در شرکت یا سازمان).
  • توهمات هوش ‌مصنوعی (با نگرانی‌هایی‌ مانند‌ امکان افشای اطلاعات و اسرار درون‌سازمانی، ارائه اطلاعات نادرست به‌ هوش ‌مصنوعی و همچنین راه‌حل‌ها یا مشاوره‌های نادرست‌ هوش ‌مصنوعی مولد).
  • نگرانی شرکتها از عواقب حقوقی سوگیری الگوریتمی هوش ‌مصنوعی مولد (مسائل مربوط به رعایت حقوق مالکیت فکری، احتمال دسترسی و افشا کردن اطلاعات خصوصی یا محرمانه یا حساس و همچنین ارائه تصمیمات نادرست دارای بار حقوقی).
  • نحوه مدیریت کارکنان و جلوگیری از سوء‌استفاده آنها (کنترل و نظارت بر واگذاری وظایف یا تکالیف سازمانی به‌ هوش ‌مصنوعی مولد (این امر در حال حاضر در حوزه آموزش و پژوهش کاملاً مشهود است)، عواقب حقوقی یا اخلاقی ناشی از خودکارسازی تأییدیه‌ها یا بررسی‌های قانونی توسط سامانه هوشمند به‌جای انسان که ممکن است اخلاقیات، انطباق، استقلال و یا سایر برنامه‌ها را تحت‌تأثیر قرار دهد).

 

ج) چالشهای عمومی و اجتماعی مخاطرات هوش ‌مصنوعی مولد

  • مخاطرات دقت و صحت (احتمال گمراه شدن کاربران به‌علت عدم تشخیص صحت و حقیقی بودن اطلاعات و منبع آن، عدم تعمیم پاسخ‌ها با توجه به ویژگی و عدم امکان‌ تأیید اطلاعات، عدم شناخت محدودیت‌های‌ هوش ‌مصنوعی و بیش‌برآورد توانایی‌های آن).
  • مخاطرات سوگیری اجتماعی (رویکردهای جنسیتی، نژادپرستانه یا تبعیض‌های مرتبط با ناتوانی و معلولیت در جوامع آنلاین، نمایندگی یک تفکر یا گروه‌های خاص، واقعیت‌سازی، تقویت سوگیری‌های موجود).
  • نقض حریم خصوصی داده‌ها و مخاطرات امنیتی (نشت داده‌های حساس،‌ سوء‌استفاده از داده‌های شخصی و اجتماعی، دسترسی به داده‌ها و حقوق آن).
  • مخاطرات مالکیت فکری (چالش با هنجارها و مقررات مالکیت فکری سنتی از منظر اصالت و مالکیت، مجوزها، حقوق بهره‌برداری و نقض حقوق مالکیت فکری افراد).
  • مخاطرات سرقت ادبی، تقلب علمی و تشخیص آن (افزایش زمینه‌های سرقت، تقلب علمی و ادبی و تشخیص دشوار و چالش‌برانگیز آن)
  • مخاطرات اخلاقی (گسترش جعل عمیق و حملات سایبری، دست‌کاری افکار عمومی و ایجاد آزار یا بدنامی، ادعاهای حقوقی تقلبی مانند درخواست بیمه خسارت، کلاهبرداری، فیشینگ و هک سیستم‌ها، فرسایش خلاقیت انسان، احتمال افزایش بیکاری، نگرانی‌های زیست‌محیطی).
  • ابهام و پیچیدگی انطباق با مفاهیم و چارچوبهای موجود (دشواری در تعریف و ارزیابی آسیب و خسارت، تعیین سطح آسیب، گروه‌های آسیب‌دیده و مسئول خسارت).

 

پیشنهاد راهکار تقنینی، نظارتی یا سیاستی

محورها و پیش‌نیازهای اصلی توسعه انواع‌ هوش ‌مصنوعی براساس سطح مخاطره سامانه‌های هوش مصنوعی با هدف به حداقل رساندن از منظر سیاستی در دو لایه کلان قابل دسته‌بندی است:

الف) لایه زیرساختی و فنی با هدف پایداری و ایمنی حداکثری سیستم

  • تدوین چارچوب‌ها و استانداردهای لازم به‌نحوی‌که چالش‌های مرتبط با کیفیت داده، نتایج سوگیرانه و شفافیت و‌ پاسخ‌گویی مدل‌ها را مرتفع کند.
  • حمایت از توسعه نوآوری و فناوری و توسعه تکنیک‌های فنی که منجر به کاهش مخاطرات می‌شوند ازجمله استفاده از داده‌های مصنوعی، تکنیک‌های کاهش سوگیری با توسعه الگوریتم‌ها، یادگیری انتقالی،‌ هوش ‌مصنوعی ناظر و کنترل‌کننده‌ هوش ‌مصنوعی دیگر.
  • ارتقای زیرساخت‌های پردازشی و ارتباطی برای بهبود مقیاس‌پذیری، اعتماد، سرعت، انعطاف‌‌پذیری و‌‌ مقرون‌به‌صرفه بودن و کاهش هزینه‌های محاسباتی با روش‌هایی‌ مانند‌ محاسبات ابری و محاسبات توزیع‌شده و فشرده‌سازی مدل‌ها.

 

ب) لایه تنظیم‌گری

  • تسهیل دسترسی به داده و‌‌ سامان‌دهی و شفافیت مدیریت داده و اطلاعات با تکمیل یا ایجاد زیرساخت‌های قانونی مرتبط با داده، ازجمله تکمیل و بهبود قانون مدیریت داده‌ها و اطلاعات ملی مصوب سال 1401، ایجاد ضوابط مرتبط با پردازش داده‌های شخصی افراد و استفاده اشخاص یا سامانه‌های هوش مصنوعی مولد از این داده‌ها در قالب تدوین طرح / لایحه حفاظت و حمایت از داده‌های شخصی و حریم خصوصی، به‌روزرسانی و انطباق قوانین موجود با مصادیق و موضوعات‌ هوش ‌مصنوعی مولد ازجمله قانون جرائم رایانه‌ای مصوب سال 1388‌، قانون تجارت الکترونیک مصوب سال 1382 و احکام مرتبط در قوانین مجازات اسلامی و حقوق مدنی – قوانین مرتبط با حمایت از مالکیت فکری با موضوعات‌ هوش ‌مصنوعی مولد ازجمله قانون حمایت از مالکیت صنعتی- مصوب صحن مجلس در 1400/9/21- قانون حمایت از حقوق پدیدآورندگان نرم‌افزارهای رایانه‌ای مصوب سال 1379- قانون حمایت حقوق مؤلفان و مصنفان و هنرمندان مصوب سال 1348، ایجاد زیرساخت‌های قانونی ویژه‌ هوش ‌مصنوعی مولد در کنترل و سطح مسئولیت و خودمختاری.
  • شناسایی و توسعه اصول، دستورالعمل‌ها، توصیه‌نامه‌ها و مقررات براساس سطح مخاطره انواع هوش مصنوعی برای حاکمیت‌ هوش ‌مصنوعی مسئولیت‌پذیر (با تأکید بر هم‌افزایی و انسجام سیاستی این حوزه در ذیل دستگاه‌های اجرایی).
  • بهبود سرمایه انسانی و ظرفیت نوآوری در کسب‌وکارها از طریق آموزش، هدایت و نگهداشت نیروهای متخصص در کنار تربیت نیروی کار ماهر.
  • راهبردهای افزایش سواد دیجیتالی برای استفاده ایمن از هوش ‌مصنوعی مولد با تأکید بر حفاظت از اقشار حساس‌ مانند‌ کودکان و نوجوانان، افراد کم‌سواد و مسن (نحوه مواجهه با فناوری و مزایای و معایب آن، کنترل و مدیریت بهره‌مندی از فناوری).

 

۱. مقدمه

در دهه گذشته، تحول دیجیتال بسیاری از چالش‌های محاسباتی را از روش‌های مختلفی ایجاد کرده است. برای مثال، گسترش تلفن همراه منجر به رویکردهای نوآورانه برای اتصال و جلب مشارکت مشتریان‌ شده ‌است. پلتفرم‌های همکاری‌ مبتنی‌بر ابر، کارمندان را قادر می‌سازد از هر کجا کار کنند و به‌طور مؤثر همکاری کنند. پذیرش اینترنت اشیا در تقریباً همه محصولات، که به سازمان‌ها در استفاده و ترجیحات مشتری کمک می‌کند تا محصولات و خدمات جدید را نوآوری کنند و سیستم‌های یکپارچه موجب عملیات بهینه و کارآمد می‌شود. داده‌ها و تجزیه‌وتحلیل‌ها با کمک به کسب‌وکارها در درک این عملکردها و ارائه بینش‌های عملی، نقش کلیدی در هر چهار بُعد تحول دیجیتال؛ یعنی مشتریان، کارمندان، محصولات و عملیات - بازی کرده‌اند. این بینش‌ها برای فعال کردن مداخلات به‌موقع برای بهینه‌سازی عملیات یا ارائه تجربه عالی به مشتری با نوآوری مداوم محصولات و خدمات ضروری بوده است [1].

در این میان، فناوری‌های‌ هوش ‌مصنوعی در سال‌های اخیر با انتشار انواع چت‌بات‌ها توجه زیادی به‌خود جلب کرده‌اند. هوش ‌مصنوعی مولد زیرمجموعه‌ای از‌ هوش ‌مصنوعی است که قادر به ایجاد محتوای جدید در قالب متن، کد، صدا، تصاویر، ویدئوها و فرایندها در پاسخ به درخواست‌های کاربر است.

پتانسیل ایجاد 10 میلیون شغل جدید؛ تغییر دائمی روش کار؛ تقویت اقتصاد خلاق و جابه‌جایی یا افزایش 100 میلیون کارمند در نقش‌هایی از برنامه‌نویس کامپیوتر گرفته تا هنرمندان گرافیک کامپیوتری، عکاس، ویرایشگر ویدئو، بازاریاب دیجیتال و حتی روزنامه‌نگار، ازجمله تغییراتی است که با به‌کارگیری‌ هوش ‌مصنوعی مولد از آن صحبت به میان آمده است [1]. حتی با وجود همه هیاهوها در مورد‌ هوش ‌مصنوعی مولد در سال جاری، این قدرت واقعی هنوز دیده یا احساس نشده است، در سال 2023 نوآوری‌های‌ قابل‌توجهی وجود خواهد داشت که انقلابی را آغاز می‌کند که هیچ صنعت یا عملکرد شغلی را به یک شکل بی‌تأثیر نخواهد گذاشت.

با وجود توسعه سریع انواع شاخه‌های هوش مصنوعی، نگرانی‌ها و ملاحظاتی درخصوص به‌کارگیری هوش مصنوعی به‌معنای عام آن، پیرامون حریم خصوصی داده‌ها، امنیت، انطباق‌ها، عدم شفافیت در نحوه رسیدن به یک پاسخ و سوق دادن افراد به‌سمت تصمیم‌گیری، سوگیری‌ها، نیروی کار، نقض حقوق مالکیت، تأثیر بر مشاغل خلاق و امثال این وجود دارد. این نگرانی‌ها در حوزه هوش مصنوعی مولد که ویژگی منحصربه‌فرد آن، تقلید رفتار و تفکر انسانی و خودمختاری است بسیار جدی‌تر است. ازاین‌رو تلاش سیاست‌گذاران به سمت تنظیم چارچوب‌ها و اصولی است که با در نظر گرفتن ویژگی‌های مخاطره‌آمیز هوش مصنوعی، زمینه توسعه هدفمند و پایدار‌ هوش ‌مصنوعی در مفهوم عام آن را فراهم سازند که اثرگذاری آن بر سایر شاخه‌های توسعه یافته هوش مصنوعی ازجمله هوش مصنوعی مولد نیز مشهود باشد.

تاکنون پژوهش‌های متعددی در مورد‌ چالش‌ها و زیرساخت‌های توسعه هوش مصنوعی در قالب مطالعه جامع یا موردی انجام شده است [2و5] که در شاخص‌ترین و جامع‌ترین آنها مرکز پژوهش‌های مجلس شورای اسلامی در قالب پژوهش‌هایی جامع، رصد فناوری‌های آتی در دنیا با تمرکز بر هوش مصنوعی و همچنین توسعه پایدار هوش مصنوعی در کشور از منظر برنامه هفتم توسعه و همچنین ساختار حکمرانی و تقسیم کار ملی به الزامات و چالش‌های‌ پیش‌روی این فناوری پرداخته است [6و7]. نکات کلیدی این پژوهش‌ها در جدول (1) آمده است.

 

جدول 1. درس‌آموخته‌هایی از جدیدترین گزارش‌های مرکز پژوهش‌های مجلس در زمینه هوش مصنوعی

عنوان گزارش

  درس آموخته‌ها

بررسی لایحه برنامه هفتم توسعه (88): توسعه پایدار هوش مصنوعی در کشور

(آبان 1402)

  •  مروری بر وضعیت این فناوری در دنیا و کارکردهای بالقوه آن.
  •  بررسی زیرساخت‌های مرتبط با توسعه هوش مصنوعی در کشور (قوانین مرتبط با داده، قوانین مرتبط با شرکت‌های دانش‌بنیان و کسب‌وکارهای نوپا، ظرفیت‌های سازمانی و انسانی).
  •   معرفی چالش‌های توسعه و چالش‌های ناشی از توسعه هوش مصنوعی.
  •    ارائه سرفصل توصیه‌های سیاستی با محوریت همکاری و اشتراک دانش، سرمایه‌گذاری در تحقیق و توسعه، اهمیت‌دهی به حکمرانی داده و دولت الکترونیک، طراحی چارچوب‌ها و استانداردهای اخلاقی، تنظیم‌گری و ایجاد زمینه هوش مصنوعی مسئول، تفویض مسئولیت صریح به نهادی فرابخشی یا ایجاد نهاد متولی، ظرفیت‌سازی، توانمندسازی، مهارت‌آموزی و بازتنظیم ساختار نیروی کار و همکاری فرارشته‌ای برای تضمین پیشرفت فراگیر.
  •   پیشنهاد حکم قانونی در برنامه هفتم.

نگاشت نهادی و تقسیم کار ملی در حوزه توسعه هوش مصنوعی و حکمرانی داده محور (آذر 1402)

  •   مطالعه نحوه تقسیم کار ملی در حوزه هوش مصنوعی در برخی کشورها.
  •  ابعاد و کارکردهای تنظیم‌گری در حوزه هوش مصنوعی (حکمرانی، آموزش و پژوهش، زیرساخت و فناوری، صنایع، سازمان‌ها و شرکت‌ها).
  •   وضعیت نهادهای مرتبط با توسعه هوش مصنوعی در ایران.
  •   ارائه مدل کلان و چارچوب تقسیم کار ملی برای حکمرانی و توسعه هوش مصنوعی (نهاد سیاست‌گذار ملی و کلان هوش مصنوعی، نهاد تنظیم‌گر مقررات ملی، نهاد هماهنگ‌کننده و راهبر اجرایی در سطح ملی).

رصد تحولات فناوری در آینده از نگاه مؤسسات بین‌المللی (مکنزی، گارتنر، امپریال کالج لندن و مجمع جهانی اقتصاد) (بهمن 1402)

  •   پیشران روندهای آتی فناوری: چالش‌های عمده اجتماعی نظیر تغییرات آب و هوا، مراقبت‌های بهداشتی، کشاورزی، آموزش و توسعه پایدار.
  • هوش مصنوعی فصل مشترک توسعه تمام فناوری‌ها در آینده.
  •   هوش مصنوعی مولد و کاربردی، اجتماعی‌ترین فناوری‌های آینده.
  •   سلامت و بهداشت و حمل‌و‌نقل، صنایع اصلی متکی به هوش مصنوعی در آینده.
  •    تأمین انرژی و زیرساخت‌های محاسباتی گلوگاه‌های توسعه هوش مصنوعی قوی.
  •   ملاحظات اخلاقی، چالش اصلی توسعه هوش مصنوعی عمومی و مولد.

در پژوهش پیش رو، تلاش شده است ضمن معرفی‌ هوش ‌مصنوعی مولد و ویژگی‌های منحصربه‌فرد آن، ابعاد چالش‌های‌ پیش‌روی این فناوری از زاویه دید هوش مصنوعی مولد و در چارچوب مباحث فنی، عملیاتی و مخاطرات اجتماعی آن به‌طور شفاف‌تر و مفصل‌تر مورد بررسی قرار گیرد و الزامات توسعه و به‌کارگیری آن نیز در سطح کلان و سیاستی تببین شوند.

2.هوش ‌مصنوعی و انواع آن

رد پای‌ هوش ‌مصنوعی را می‌توان از دهه 1960 پیدا کرد. بااین‌حال، این فناوری در سال 2006 با اولین مقاله مهم در این زمینه تحت‌عنوان «الگوریتم یادگیری سریع برای شبکه‌های باور عمیق» که ماشین‌های محدود شده بولتزمن را دوباره معرفی کرد، شروع به توسعه به چیزی شبیه به شکل فعلی خود کرد. ماشین بولتزمن محدود شده، الگوریتمی است که می‌تواند با بازسازی ورودی، به‌طور خودکار الگوهای ذاتی در داده‌ها را تشخیص دهد. هرچند در سال‌های بعد از آن، نوآوری‌های کمی در این زمینه صورت گرفت، اما در سال 2014، با معرفی شبکه‌های متخاصم مولد‌ها توسط یان گودفلو و همکارانش. پیشرفت‌های مولد‌ هوش ‌مصنوعی در تحقیقات در سال‌های بعد انجام شد که‌ مهم‌ترین آن معرفی معماری ترانسفورماتور برای برنامه‌های پردازش زبان طبیعی است که توسط واسوانی و همکاران گوگل ارائه شد هریک از این محصولات بر‌اساس یک مدل زبان ساخته شده‌اند، یک نوع مدل یادگیری ماشینی که بر روی حجم عظیمی از داده‌های آموزشی ساخته‌ شده ‌است. کاربران اکنون می‌توانند از مدل‌های‌ هوش ‌مصنوعی برای طیف وسیعی از کارهای تولید محتوا و ارائه خدمات استفاده کنند‌[1]. در حالت عمومی، هوش مصنوعی به‌معنای دانش و مهندسی ساخت ابزارهای هوشمند، مخصوصاً برنامه‌های کامپیوتری هوشمند است تا کارهایی را انجام دهد که معمولاً با استفاده از هوش انسان انجام می‌شوند. بنابراین قدرت هوش مصنوعی وابسته به توانایی‌هایی است که ماشین‌ها و ابزارها به‌دست می‌آورند تا به هوش و تفکر انسانی نزدیک شوند.

 

2-1. هوش مصنوعی محدود

این سطح از هوش مصنوعی تنها به دنبال هوشمندسازی یک وظیفه برای ماشین است. این سامانه‌ها می‌توانند در زمان واحد یک کار را انجام دهد و اطلاعات را از یک مجموعه داده‌های خاص جمع‌آوری می‌کنند و بنابراین‌ نمی‌توانند بیش از یک وظیفه‌‌ای که برای انجام آنها تعریف شده است کار دیگری انجام دهند. به عبارت دیگر هوش مصنوعی محدود، نمی‌تواند آگاهانه، احساساتی و یا احساسی عمل کند و همانند انسان هدایت‌ نمی‌شود و با داده‌های از پیش تعیین شده و از پیش تعریف شده عمل می‌کند. به بیان ساده‌تر، سامانه‌هایی با هوش مصنوعی محدود‌ نمی‌توانند برای خودشان فکر کنند. قسمت‌ قابل‌توجهی از سامانه‌هایی با هوش مصنوعی که امروز در حال استفاده هستند از نوع هوش مصنوعی محدود می‌باشند که ازجمله آنها، سامانه‌های ترجمه خودکار متون (مانند گوگل ترانسلیت)، موتورهای جستجو، سامانه‌های پیش‌بینی آب و هوا، سامانه‌های بازی‌ (مانند شطرنج)، سامانه‌های مسیر یاب‌های ترافیکی بر خط، تشخیص چهره، صدا، دست‌خط و ربات‌های انسان‌نما قابل ذکر هستند [8].

 

2-2. هوش مصنوعی عمومی

این نوع از هوش مصنوعی، در سامانه‌هایی وجود دارد که به سطوحی از هوش انسانی نزدیک شده و آن را دارا هستند. در این حالت، سامانه می‌تواند قابلیت درک و شعور داشته و خودآگاه باشد و مشابه یک انسان با محیط خود تعامل کند. انتظار می‌رود این نوع از هوش مصنوعی بتواند استدلال کند‌، مشکلات را حل کند‌، در زمان عدم قطعیت قضاوت کند‌، برنامه‌ریزی کند‌، یاد بگیرد‌، دانش قبلی را در تصمیم‌گیری ادغام کند و مبتکر‌، دارای قوه تخیل و خلاق باشد. هرچند دستیابی به هوش مصنوعی عمومی در حال حاضر امکان پذیر شده و تحت عنوان هوش مصنوعی مولد از آن یاد می‌شود، اما هنوز در مراحل ابتدایی و رو به پیشرفت خود است. این سامانه‌ها قادرند، داده‌ها را سریع‌تر از حد ممکن پردازش و محتواهای جدید تولید کنند، اما همچنان و البته به سرعت در حال حرکت به سمت دستیابی به توانایی‌های خاص انسان از قبیل تصمیم‌گیری آگاهانه یا ایده‌های خلاقانه و تفکر انتزاعی و راهبردی یا تعمق در افکار و خاطرات هستند (سایت عامر اندیش). اگرچه محققان معتقدند فاصله بین سطح کنونی و دستیابی به سطح ابرهوش مصنوعی بسیار کوتاه است و به سرعت رخ خواهد داد [8].

 

2-3. ابرهوش مصنوعی

درصورتی‌که عملکرد یک سامانه بسیار هوشمندانه‌تر از باهوش‌ترین مغز انسان باشد، در این سطح قرار خواهد گرفت. این نوع هوش مصنوعی، در همه ابعاد – از خلاقیت‌، تا خرد عمومی‌، تا حل مسئله- پیشی خواهد گرفت و سامانه‌ها قادر به نمایش اطلاعاتی خواهند بود که ما در فرهیخته‌ترین افراد انسانی ندیده‌ایم. چشم‌انداز دستیابی به ابرهوش مصنوعی در عین جذابیت و هیجان، نگرانی‌های زیادی را مخصوصاً به لحاظ اخلاقی ایجاد کرده است[8].

3.هوش مصنوعی مولد و ویژگی‌ها

هوش مصنوعی مولد در دسته هوش مصنوعی عمومی قرار دارد و نوعی یادگیری ماشینی است که می‌تواند داده یا محتوای جدیدی تولید کند که شبیه داده یا محتوای اصلی باشد. برای مثال،‌ هوش ‌مصنوعی مولد می‌تواند تصاویر واقعی از چهره‌ها، حیوانات یا مناظری ایجاد کند که در واقعیت وجود ندارند، یا متنی تولید کند که سبک و لحن یک نویسنده یا ژانر خاص را تقلید کند. به این ترتیب‌ هوش ‌مصنوعی مولد، با ایجاد محتوای جدید، به حوزه خلاقیت که زمانی منحصربه‌فرد برای انسان‌ها بود، نفوذ می‌کند [9].

به این ترتیب، ویژگی اصلی هوش ‌مصنوعی مولد را می‌توان در قابلیت‌ها و کاربردها جستجو کرد. سیستم‌های‌ هوش ‌مصنوعی سنتی که اغلب از آن به‌عنوان‌ هوش ‌مصنوعی ضعیف یا محدود هم یاد می‌کنند، عمدتاً برای تجزیه‌وتحلیل داده‌ها و پیش‌بینی‌ها استفاده می‌شوند و عملکرد آن براساس قوانین و الگوریتم‌هایی است که توسط انسان برنامه‌ریزی شده و از مجموعه دستورالعمل‌های از پیش تعریف شده برای پردازش داده‌ها، تصمیم‌گیری و انجام وظایف پیروی می‌کند. درحالی‌که‌ هوش ‌مصنوعی مولد با ایجاد داده‌های جدید مشابه داده‌های آموزشی خود، یک قدم فراتر می‌رود. هوش ‌مصنوعی مولد از داده‌ها یاد می‌گیرد و قوانین خود را ایجاد می‌کند. درنتیجه می‌تواند خروجی‌های جدید و خلاقانه‌ای تولید یا راه‌حل‌های نوآورانه‌ای ارائه دهد و امکانات جدیدی ایجاد کند که ممکن است به‌راحتی و آن‌ چنان‌که در مورد‌ هوش ‌مصنوعی سنتی امکان‌پذیر است، قابلیت تفسیر و کنترل نداشته باشد. به‌عبارت‌دیگر،‌ هوش ‌مصنوعی سنتی در تشخیص الگو برتری دارد، درحالی‌که‌ هوش ‌مصنوعی مولد در ایجاد الگو برتری دارد. هوش ‌مصنوعی سنتی می‌تواند داده‌ها را‌ تجزیه‌وتحلیل کند و به شما بگوید که چه چیزی می‌بیند، اما‌ هوش ‌مصنوعی مولد می‌تواند از همان داده‌ها برای ایجاد چیزی کاملاً جدید استفاده کند [4].

 

3-1. ابزارها و مدل‌های مولد در هوش ‌مصنوعی

دو عامل نقش مهمی در جریان اصلی‌ هوش ‌مصنوعی مولد ایفا کرده‌اند: ترانسفورماتورها و‌ مدل‌های زبان پیشرفته [9].

  • ترانسفورماتورها

 نوعی یادگیری ماشینی هستند که به محققان امکان آموزش‌ مدل‌های بزرگ‌تر را بدون نیاز به برچسب زدن همه داده‌ها از قبل می‌دهند. بنابراین می‌توان‌ مدل‌های جدید را بر روی میلیاردها صفحه متن آموزش داد و درنتیجه به پاسخ‌هایی با عمق بیشتری دست یافت. علاوه‌بر این، ترانسفورماتورها مفهوم جدیدی به نام توجه را باز کردند که مدل‌ها را قادر می‌سازد تا ارتباطات بین کلمات را در صفحات، فصل‌ها و کتاب‌ها را نه فقط در کلمات یا جملات جداگانه بلکه به صورت یکپارچه و کامل ردیابی کنند. ترانسفورماتورها همچنین می‌توانند از توانایی خود برای ردیابی اتصالات برای تجزیه‌وتحلیل کد، پروتئین‌ها، مواد شیمیایی و DNA استفاده کنند.

  • مدل‌های زبان بزرگ (LLM)

مدل‌های زبانی بزرگ‌ مدل‌های یادگیری ماشینی هستند که متن زبان طبیعی را پردازش و تولید می‌کنند. دسترسی به حجم عظیمی از داده‌های متنی از منابعی مانند کتاب‌ها، وب‌سایت‌ها و پست‌های رسانه‌های اجتماعی یکی از‌ مهم‌ترین پیشرفت‌ها در توسعه‌ مدل‌های زبان بزرگ بوده است. سپس، داده‌ها می‌توانند برای آموزش مدل‌هایی استفاده شوند که می‌توانند پاسخ‌های زبان طبیعی را در زمینه‌های مختلف پیش‌بینی کرده و تولید کنند. مدل‌های زبان بزرگ کاربردهای متعددی در دنیای واقعی دارند، ازجمله در چت‌بات‌ها، دستیاران مجازی و تولیدکننده‌های متن مانند چت جی‌پی‌تی (ChatGPT).

پیشرفت‌های سریع در‌ مدل‌های به‌اصطلاح زبان بزرگ - یعنی مدل‌هایی با میلیاردها یا حتی تریلیون‌ها پارامتر - عصر جدیدی را گشوده است که در آن مدل‌های‌ هوش ‌مصنوعی مولد می‌توانند متن جذاب بنویسند، تصاویر واقعی و حتی تا حدودی سرگرم‌کننده خلق کنند. مدل‌های زبان بزرگ قادرند توانایی خود را به‌علت دریافت تعداد زیادی داده و داده‌پردازی قوینسبت به دریافت پرسش و ارائه پاسخ، تکمیل دانش و استدلال کردن افزایش دهند و این امر باعث توسعه هرچه سریع‌تر هوش مصنوعی مولد شده است.

 

3-2. ضرورتهای توجه به هوش ‌مصنوعی مولد

‌‌هوش‌ مصنوعی مولد می‌تواند محتوا را به اشکال مختلف ازجمله متن، تصویر، ویدئو و صدا ایجاد کند. با قابلیت‌های زبانی پیشرفته ذاتی‌ مدل‌های زبان بزرگ، در کارهایی مانند پردازش و خلاصه کردن داده‌های متنی گسترده برتری دارد. علاوه‌بر این، قابلیت‌های استنتاجی آن به آن اجازه می‌دهد تا الگوهای پیچیده را رمزگشایی کند و بینش‌های معناداری را از قطعات مختلف اطلاعات به‌دست آورد و آن را به ابزاری ارزشمند برای تجزیه‌وتحلیل داده‌ها و تصمیم‌گیری آگاهانه تبدیل می‌کند. ازاین‌رو، این فناوری قادر است خلاقیت و نوآوری را با ارائه ایده‌ها، الهامات و طرح‌های جدید افزایش داده و مزایای بالقوه زیادی برای حوزه‌ها و صنایع مختلف ایجاد کند.

هوش ‌مصنوعی مولد همچنین می‌تواند تجربیات و محصولات را برای کاربران با ترجیحات مختلف و ذائقه‌های گوناگون؛ شخصی‌سازی و سفارشی کند. به این ترتیب قادر است محتوای مناسبی مانند اخبار، تبلیغات یا توصیه‌ها تولید کند یا آواتارها، شخصیت‌ها یا محیط‌های منحصربه‌فردی برای بازی‌ها یا واقعیت مجازی ایجاد کند. فراتر از این قابلیت‌ها،‌ هوش ‌مصنوعی مولد در ساخت ربات‌های قادر به گفتگو برای تعاملات و مکالمه طبیعی شبیه انسان و ارائه خدمات ترجمه بسیار دقیق، کاربرد گسترده‌ای پیدا کرده که به‌طور‌ مؤثر موانع ارتباط زبانی را در مقیاس جهانی از بین می‌برد [10].

بینگ چت برای کسانی که می‌خواهند گزینه‌ای آسان و‌ مقرون‌به‌صرفه باشند، عالی است. در محصولات مایکروسافت ادغام‌ شده‌ است و برای دریافت پاسخ‌های دقیق، قابل دسترس و عالی است. چت ‌جی‌پی‌تی که توسط اپن ای آی پشتیبانی می‌شود، بهترین گزینه برای خلاقیت و تطبیق‌‌پذیری است. می‌تواند کارهای زیادی انجام دهد، از ترجمه زبان گرفته تا کمک به آموزش. حتی یک نسخه پولی برای ویژگی‌های بیشتر وجود دارد. از طرفی گوگل بارد، درحالی‌که هنوز در حال آزمایش است، قول می‌دهد شکاف بین اطلاعات و خلاقیت را پر کند. انتخاب‌ هریک از این چت بات‌ها بستگی به نیاز کاربر دارد که در جدول (2) ویژگی‌ آنها آمده است [11].

 

جدول 2. ویژگیهای سه چت بات معروف چت‌ جی‌پی‌تی، گوگل بارد و بینگ چت

خصوصیات

 

سکو (پلتفرم)

چت ‌جی‌بی‌تی (Chat GPT)

گوگل بارد Google Bard

بینگ چت Bing Chat

شرکت سازنده

اپن‌‌ای آی Open AI

گوگلGoogle

مایکروسافت

تاریخ انتشار اولیه

30 نوامبر 2022

21 مارس 2023

14 مارس 2023

مدل زبان

GPT3.5/GPT4

 LaMDA

GPT4

قیمت‌گذاری

20 دلار در ماه / نسخه رایگان در دسترس

رایگان

رایگان

دسترسی به اطلاعات

محدود تا 2021

داده زنده بروی اینترنت

داده زنده بروی اینترنت

پشتیبانی چند زبانی

دارد

ندارد

دارد

مأخذ: گارتنر.

 

راه‌حل‌های‌ هوش ‌مصنوعی و تحلیلی که توسط‌ هوش ‌مصنوعی مولد ارائه می‌شوند، احتمالاً تأثیر قابل‌توجهی بر هر چهار بُعد تحول دیجیتال خواهند داشت تا نوآورانه باشند. این چهار بُعد و تأثیر‌ هوش ‌مصنوعی مولد در آنها عبارتند از:

  • مشتریان

‌‌هوش‌ مصنوعی مولد، می‌تواند نحوه تعامل سازمان‌ها با مشتریان در هنگام برقراری ارتباط در مورد محصولات و خدمات و ارائه خدمات شخصی‌سازی شده را تغییر دهد.

هوش مصنوعی مولد، می‌تواند با ارائه بینش‌های مستمر در طول سفر مشتری، فروش و خدمات را تسریع بخشد. شایان ذکر است که بیشتر موارد استفاده فهرست شده در زیر برای‌ هوش ‌مصنوعی کاملاً جدید نیستند، اما به‌علت قابلیت‌های‌ هوش ‌مصنوعی مولد برای‌ تجزیه‌وتحلیل رفتارها، ترجیحات و پروفایل‌های مختلف مشتریان و ارائه بینش‌های بسیار شخصی‌سازی شده، تقویت می‌شوند.

- محتوای بازاریابی پویا، ازجمله تولید تصاویر و ویدئو از مستندات محصول.

- پشتیبانی بیش از حد شخصی.

- توصیه‌های فروش متقابل براساس الگوهای استفاده.

  • کارمندان

‌‌هوش‌ مصنوعی مولد می‌تواند سازمان‌ها را قادر سازد تا‌ فرایندهای تعامل کارکنان را از نظر ارائه ابتکارات یادگیری و مشارکت شخصی، راهی تعاملی و مؤثر برای بررسی و درک سیاست‌ها، رویه‌ها و مقررات برای کارکنان، احیا کنند. هوش ‌مصنوعی مولد همچنین می‌تواند ابتکارات اتوماسیون‌ فرایندهای مختلف را با استفاده از قابلیت‌های‌ مدل‌های زبان بزرگ تسریع بخشد.

در اینجا چند مورد کاربرد وجود دارد:

-  تصمیم‌گیری آگاهانه با دسترسی آسان‌تر و سریع‌تر به اطلاعات مرتبط با افزایش جستجوی سازمانی.

-  مربیگری شخصی برای هر کارمند برای ارائه راهنمایی‌های توسعه و بهبود بهره‌وری.

-  بینش تیم‌های منابع انسانی براساس سابقه کارمندان تا مداخلات خاص و هدفمند.

  • محصولات

چرخه عمر توسعه محصول‌ فرایندهای پیچیده‌ای را طی می‌کند تا مفاهیم و طرح‌های مختلف را قبل از رسیدن به راه‌حل نهایی ارزیابی و اعتبارسنجی کند. راه‌حل‌های فعلی طراحی محصول از داده‌های بزرگ و‌ هوش ‌مصنوعی برای شبیه‌سازی قبل از ادامه طراحی فیزیکی استفاده می‌کنند. راه‌حل‌های طراحی به کمک هوش مصنوعی مولد می‌توانند گزینه‌ها را با شبیه‌سازی و مقایسه نتایج به‌طور‌ قابل‌توجهی گسترش دهند تا به بهینه‌ترین طراحی برسند. برای مثال، شرکت‌ها ممکن است از این فناوری‌ها برای موارد زیر استفاده‌ کنند:

-  شبیه‌سازی و اعتبارسنجی مفهوم.

-  بهینه‌سازی عملکرد محصول از نظر هزینه در مقابل ارزش.

 

  • عملیات

عملیات احتمالاً حوزه‌ای خواهد بود که بیشتر تحت‌تأثیر‌ هوش ‌مصنوعی مولد قرار می‌گیرد. زیرا می‌تواند سازمان‌ها را قادر به افزایش کارایی و بهره‌وری کند. هوش ‌مصنوعی مولد، زمانی که با‌ مدل‌های تحلیلی و‌ هوش ‌مصنوعی سنتی همراه شود، می‌تواند به سازمان‌ها اجازه دهد تا از این موارد استفاده کم‌مصرف بهره ببرند.

-  برنامه‌ریزی و بهینه‌سازی زنجیره تأمین براساس تاریخچه و داده‌های سیستم‌های کمکی مانند ترافیک.

-  مدیریت دانش.

- حل مسئله.

-  راه‌حل‌های خودیاری.

 

4.چالش‌های پیش‌روی توسعه هوش ‌مصنوعی مولد

چالش‌های‌ پیش‌روی توسعه‌ هوش ‌مصنوعی مولد را نمی‌توان از چالش‌هایی که‌ به‌طورکلی در‌ پیش‌روی توسعه همه انواع هوش مصنوعی وجود دارد متفاوت دانست. هرچند با پیشرفت قابل‌توجه هوش مصنوعی عمومی و نزدیک شدن آن به سطوح بالای هوش انسانی، میزان مخاطره آمیز بودن هوش مصنوعی مولد و تبدیل شدن آن به ابرهوش مصنوعی افزایش می‌یابد و ضرورت ایجاد زیرساخت‌های پایدار را بیشتر می‌کند. لذا،‌ چالش‌ها از سه منظر چالش‌های فنی و عملیاتی مرتبط با زیرساخت‌های داده و محاسبات و تولید و همچنین چالش‌های‌ پیش‌روی کسب‌وکارها و تولید و چالش‌های عمومی و اجتماعی بررسی شده و بر ابعاد آن از منظر کاربردها و کارکردهای هوش مصنوعی مولد تأکید شده است.

 

4-1. چالش‌های فنی و عملیاتی

4-1-1. لزوم دسترسی به داده زیاد، باکیفیت و متنوع

‌‌هوش‌ مصنوعی مولد بیش از سایر انواع‌ مدل‌های هوش مصنوعی محدود به مقادیر زیادی داده با کیفیت بالا و متنوع نیاز دارد. این امر منجر به بهبود آموزش و تقویت سطح هوش مصنوعی و ارزیابی مدل‌ها و پاسخ‌های آن می‌شود. ازاین‌رو چالش گردآوری و دسترسی به داده‌های متنوع، زیاد و چندلایه، در توسعه هوش مصنوعی مولد کلیدی‌تر و حیاتی‌تر است. جمع‌آوری، برچسب‌گذاری و پردازش چنین داده‌هایی می‌تواند پرهزینه، زمانبر و دشوار باشد. علاوه‌بر این، برخی از داده‌ها ممکن است کمیاب، حساس باشند یا توسط قوانین حق مالکیت یا حفظ حریم خصوصی محافظت شوند، که در دسترس بودن و دسترسی به داده‌ها را محدود می‌کند. بنابراین، دست‌اندرکاران‌ هوش ‌مصنوعی مولد باید راه‌هایی برای کسب، مدیریت و استفاده مؤثر و اخلاقی از داده‌ها بیابند[12].

بسیاری از شرکت‌ها از ابتدا؛‌ مدل‌های از پیش آموزش‌دیده را به‌دلیل هزینه‌های گزاف و منابع محاسباتی مورد نیاز برای آموزش انتخاب می‌کنند. بااین‌حال، این پذیرش، چالش‌های دیگری‌ مانند‌ سوگیری داده و امنیت داده را به‌همراه دارد.

 

4-1-2. کیفیت و کمیت داده

هوش مصنوعی مولد کاربردهای بالقوه زیادی در حوزه‌های مختلف مانند سرگرمی، آموزش، بازاریابی، طراحی و مراقبت‌های بهداشتی دارند. بااین‌حال، بهبود سطح هوش مصنوعی مولد و دستیابی به قابلیت‌های چندمنظوره، نیازمند داده‌های با کیفیت بالا برای یادگیری و تولید محتوای واقعی و مشابه با خلاقیت انسانی است. جمع‌آوری و آماده‌سازی این داده‌ها،‌ علاوه‌بر پر هزینه بودن، وقت‌گیر و مستعد خطاها و سوگیری است. بنابراین،‌ مدل‌های مولد باید اطمینان حاصل کنند که از منابع داده قابل‌اعتماد و معتبر استفاده می‌کنند، تکنیک‌های پاکسازی و تقویت داده‌ها را به‌کار می‌گیرند و از استانداردهای اخلاقی و قانونی برای حفاظت از داده‌ها پیروی می‌کنند.

4-1-3. تأمین امنیت و حفاظت از دادههای داخلی بهکمک توسعه الگوها و کدها

همان‌طور که گفته شد،‌ مدل‌های زبان بزرگ یکی از ابزارهای بسیار مهم در توسعه هوش مصنوعی مولد است، اما نگرانی‌های جدی درخصوص داده‌های داخلی از منظر حفظ حریم خصوصی، امنیت و انطباق داده‌ها هنگام ستفاده از‌ مدل‌های بزرگ زبانی‌ مبتنی‌بر ابر برای توسعه هوش مصنوعی مولد وجود دارد. ازآنجاکه داده‌ها همیشه در حال تغییر هستند، باید راهبردهای سازمانی مشخصی برای توسعه و بهبود‌ مدل‌های زبانی بزرگ و حفاظت از داده‌ها تعریف شود. الگوهای بازیابی شده افزوده تولیدی، یک چارچوب برای توسعه هوش مصنوعی مولد است و با هدف پایه‌گذاری‌ مدل‌های زبان بزرگ بر روی دقیق‌ترین و به‌روزترین اطلاعات ایجاد شده و همان‌طور که از نام آن پیداست، دارای دو مرحله است: بازیابی و تولید محتوا. در مرحله بازیابی، الگوریتم‌ها تکه‌هایی از اطلاعات مربوط به درخواست یا سؤال کاربر را جستجو و بازیابی می‌کنند. در یک محیط باز و مصرف‌کننده، این حقایق می‌توانند از اسناد نمایه شده در اینترنت بیایند. در ادامه محتوا توسط مدل زبانی تولید می‌شود. این الگو تضمین می‌کند که مدل به جدیدترین و قابل‌اعتمادترین حقایق دسترسی دارد و کاربران به منابع مدل دسترسی دارند و اطمینان می‌دهد که ادعاهای آن می‌توانند از نظر دقت و صحت بررسی می‌شوند و درنهایت مورد اعتماد است [13].

با پایه‌ گذاری یک مدل زبانی بزرگ بر روی مجموعه‌ای از حقایق خارجی و قابل تأیید، این مدل فرصت‌های کمتری برای جذب اطلاعات در پارامترهای محدود خود دارد. درنتیجه احتمال درج داده‌های حساس یا ارائه اطلاعات نادرست و گمراه‌کننده کاهش می‌یابد [13].

4-1-4. کاهش سوگیری دادههای آموزشی

با توجه به قدرت هوش مصنوعی مولد در پردازش و تحلیل داده و اطلاعات و تولید محتواهای جدید، پرداختن به سوگیری و کاهش آن به‌لحاظ رویکردهای فنی و سیاستی یک الزام اخلاقی و قانونی در توسعه این نوع از هوش مصنوعی است. در حال حاضر، برای کاهش هزینه‌های توسعه هوش مولد، مدل‌های از پیش آموزش‌دیده مورد استفاده قرار می‌گیرند. مدل‌های از قبل آموزش‌دیده هرچند که از منابع داده‌های متنوع، ازجمله داده‌های بالقوه اختصاصی یا محرمانه استخراج می‌شوند، اما می‌توانند سوگیری‌هایی را از داده‌های آموزشی خود به ارث ببرند که در فرایند به کارگیری و گسترش استفاده از هوش مصنوعی مولد، کلیشه‌های مضر را در محتوای تولید شده تداوم بخشند [14].

4-1-5. بررسی عملکرد و ارزیابی مدل

توسعه‌ مدل‌های مولد و پیچیده‌ علاوه‌بر اینکه به زیرساخت‌های محاسباتی نرم‌افزاری و سخت‌افزاری نیاز دارد، از نظر ارزیابی و مقایسه نیز نسبت به سایر‌ مدل‌های توسعه داده شده برای هوش مصنوعی محدود دشوارتر است. زیرا هیچ معیار واضح و عینی برای اندازه‌گیری کیفیت و تنوع آنها وجود ندارد. بنابراین،‌ مدل‌های مولد باید استفاده از منابع، بتوانند مقیاس‌پذیری و کارایی خود را بهینه کنند و روش‌های ارزیابی مناسب و معیارهایی را توسعه دهند که نتایج مورد نظر و بازخورد کاربر را منعکس کند [15].

4-1-6. قابلیت توضیح و اعتماد مدل

مدل‌های مولد اغلب در رفتار و خروجی‌های خود مبهم و غیرقابل پیش بینی هستند. آنها ممکن است محتوای نادرست، نامناسب یا مضر برای کاربران یا جامعه تولید کنند. همچنین ممکن است حقوق مالکیت معنوی یا ارزش‌های اخلاقی تولیدکنندگان یا مصرف‌کنندگان محتوای اصلی را نقض کنند. بنابراین،‌ مدل‌های مولد باید اطمینان حاصل کنند که برای اعمال و تصمیمات خود شفاف و پاسخ‌گو هستند و به حقوق و ترجیحات ذی‌نفعان درگیر احترام می‌گذارند. آنها همچنین باید توضیحات و توجیهی برای خروجی‌ها و مکانیسم‌های اصلاح و کنترل خود ارائه دهند‌ [16].

4-1-7. تأمین زیرساخت‌های سخت‌افزاری و نرم‌‌‌افزاری محاسباتی

مدل‌های‌ هوش ‌مصنوعی مولد اغلب پیچیده و بزرگ هستند که برای آموزش و اجرا به سخت‌افزار و نرم‌افزار با کارایی بالا نیاز دارند. بااین‌حال، چنین منابعی می‌تواند برای بسیاری از کاربران و سازمان‌ها گران، کمیاب یا غیر قابل دسترس باشد. ازاین‌رو تأمین زیرساخت‌های پردازش و ذخیره‌سازی داده‌های بزرگ در کنار بحث آموزش و محاسبات استنتاج، چالشی بسیار جدی در مسیر توسعه‌ هوش ‌مصنوعی مولد است. مدل‌های آموزشی برای دستیابی به‌سرعت و عملکرد به GPU، TPU یا ASIC سفارشی نیاز دارند.

برای مثال، آخرین مدل کد-لاما از متا، بر روی سخت‌افزار A100-80GB آموزش داده شده و 400 هزار ساعت GPU مصرف شده‌ است [16].‌ علاوه‌بر این، هزینه آموزش، ارائه و نگهداری از این سرویس‌ها بالاست [17].

 

4-1-8. تأمین انرژی مورد نیاز برای محاسبات و چالش رد پای کربن

مدل‌های‌ هوش ‌مصنوعی مولد به‌علت حجم بالای پردازش، می‌توانند انرژی زیادی را مصرف و انتشار کربن زیادی‌ داشته‌ باشند که آثار منفی زیست‌محیطی و اجتماعی در پی دارد. بنابراین، متخصصان‌ هوش ‌مصنوعی مولد باید راه‌هایی برای بهینه‌سازی، مقیاس‌‌پذیری و استقرار مدل‌ها به‌طور کارآمد و پایدار بیابند [18].

 

4-2. چالشهای استفاده و پیاده‌سازی فناوریهای هوش ‌مصنوعی مولد در کسب‌وکارها

4-2-1. پیچیدگی فنی راه‌اندازی و استفاده

مدل‌های‌ هوش ‌مصنوعی مولد ممکن است حاوی میلیاردها یا حتی تریلیون‌ها پارامتر باشند که‌ آنها را به کاری پیچیده برای کسب‌وکار معمولی تبدیل می‌کند. به عقیده برخی تحلیلگران آموزش این مدل‌ها برای اغلب سازمان‌ها غیرعملی و بزرگ هستند.

منابع محاسباتی لازم نیز می‌تواند این فناوری را گران‌تر و از نظر زیست‌محیطی غیردوستانه کند که تمایل کسب‌وکارهای تولیدی و صنعتی به بهره‌گیری‌ از این فناوری را می‌کاهد. بنابراین کسب‌وکارها متمایل به استفاده‌های کوتاه‌مدت از‌ هوش ‌مصنوعی مولد از طریق واسط‌های برنامه‌نویسی کاربردی ابری با تنظیم محدود باشند و استفاده از این فناوری در کسب‌وکارها به‌صورت وسیع و پایدار نباشد.. [19].

4-2-2. مقاومت سیستمهای قدیمی در برابر فناوریهای جدید

‌‌هوش‌ مصنوعی مولد ظرفیت بالایی برای ارائه راه‌حل‌های جدید دارد و از انواع مختلف تفکر بهره می‌برد، اما سازمان‌ها ممکن است این فناوری نوظهور را در تضاد با نحوه مدیریت سیستم‌های فعلی و وظیفه‌های رایج خود بدانند. ازاین‌ر‌و، گنجاندن‌ هوش ‌مصنوعی مولد در محیط‌هایی با فناوری قدیمی‌تر می‌تواند مشکلات بیشتری را برای شرکت‌ها ایجاد کند که مقاومت در برابر پذیرش فناوری را در محیط‌های کسب‌وکار سنتی افزایش می‌دهد و لذا بسیاری از کسب‌وکارها تمایلی به استفاده از آن نشان ندهند. حتی در صورت تصمیم به استفاده از این فناوری نیز باید راه‌های جدیدی برای ایجاد یکپارچگی یا پذیرش قابلیت‌های جدید با فناوری‌های جدید بیابند که آنها را قادر می‌سازد به همان خروجی‌ها یا نتایج، سریع‌تر و مؤثرتر برسند که سختی پیاده‌سازی این فرایند، مقاومت بدنه را برای پذیرش در پی دارد. فناوری‌های جدیدتر اغلب سازمان‌ها را مجبور می‌کنند تا بخشی از نیروی خود را جهت راه‌اندازی مرکزی برای اجرا، هماهنگی و نظارت به‌کار گیرند تا بر پذیرش و گسترش مؤثر تمرکز کنند. این امر نیز به‌نوبه‌خود هزینه کسب‌وکار (یا سازمان) را افزایش خواهد داد [19].

4-2-3. ابهام در‌‌ مدل‌های اقتصادی کسب‌وکارها و امکان ایجاد بدهی فنی

اگر کسب‌وکارها نتوانند از طریق پذیرش‌ هوش ‌مصنوعی و کاربرد آن به تغییرات‌ قابل‌توجهی دست یابند، این فناوری خود می‌تواند می‌تواند به‌عنوان بدهی فنی به سیستم‌های قدیمی بپیوندد. در زمینه هوش مصنوعی مولد که به‌مراتب هزینه‌های آن بالاتر از هوش مصنوعی محدود است، این چالش بسیار جدی‌تر است. یک کسب‌وکار ناچار است به میزان‌ قابل‌توجهی از حجم کارهای انسانی و همچنین نیروهای کار خود بکاهد تا سرمایه‌گذاری در‌ هوش ‌مصنوعی را توجیه کند و درصورتی‌که این کاهش یا حذف را انجام ندهد عملاً بهینه‌سازی رخ نداده و تنها بدهی بیشتری به‌‌ فرایندهای خود اضافه کرده است [19].

4-2-4. تغییر شکل بخشی از نیروی کار کسب‌وکارها

‌‌هوش‌ مصنوعی مولد احتمالاً نحوه انجام کار در بسیاری از زمینه‌ها را بازسازی می‌کند، قابلیت استقلال، شعور و خودآگاهی سامانه‌های هوش مصنوعی مولد در انجام فعالیت‌های انسانی، وابستگی مشاغل به انسان را کاهش می‌دهد و این چشم‌انداز نگرانی‌های مربوط به از دست دادن شغل را افزایش می‌دهد. برای مثال، در صنعت بازی‌های ویدیوئی، فرصت‌های شغلی برای هنرمندان در حال از بین رفتن است؛ زیرا شرکت‌ها از تولیدکننده‌های تصویر مبتنی‌بر‌ هوش ‌مصنوعی استفاده می‌کنند. هرچند این موضوع یک شمشیر دو لبه است. برخی محققان معتقدند‌ هوش ‌مصنوعی مولد برخی از انواع مشاغل را حذف می‌کند، اما همچنین «انواع مشاغل جدیدی را باز می‌کند که همان افراد می‌توانند از آنها استفاده ‌کنند». برای مثال براگ معتقد است‌ هوش ‌مصنوعی ممکن است تعداد شاغلین در ارائه پشتیبانی و خدمات مشتری را کاهش دهد، اما این فناوری، نقش‌های دیگری را نیز ایجاد می‌کند. به استدلال او یک کسب‌وکار به کارکنانی برای نظارت و بهبود تجربه مشتری با کمک‌ هوش ‌مصنوعی نیاز دارد. کارمندانی که زمانی سئوالات مشتریان را در لپ‌تاپ‌هایی با سرعت عملکرد پایین مطرح می‌کردند، در عوض اطلاعات و پیشرفت‌های فنی بعدی را هدایت خواهند کرد. او از این انتقال به‌عنوان «رفتن از انجام‌دهنده به مربی» یاد می‌کند [19].

4-2-5. توهمات‌‌ هوش ‌مصنوعی

مدل‌های‌ هوش ‌مصنوعی هزینه تولید محتوا را کاهش می‌دهند. این به کسب‌وکارها کمک می‌کند، اما درعین‌حال احتمال‌ سوء‌استفاده از محتواها و جعل عمیق نیز وجود دارد. هوش مصنوعی مولد‌ به‌علت ویژگی‌های خلاقیت و تولید محتوای آگاهانه قادر است‌ به‌شدت بر توهمات دامن بزند. نه‌تنها کاربران انسانی می‌توانند از سیستم‌های‌ هوش ‌مصنوعی مولد سوء استفاده‌کنند و توهم‌زایی را گسترش دهند، خود‌‌ مدل‌های مولد نیز می‌توانند کسب‌وکارها را به بیراهه بکشانند. زیرا توهمات‌ هوش ‌مصنوعی مولد اطلاعات نادرست ارائه می‌دهد و «واقعیت‌ها» را می‌سازد و منجر به ارائه راه‌حل‌هایی شود که در مسیر یک کسب‌وکار خسارات جبران‌ناپذیر ایجاد کند‌ [19]. رسانه‌های دیجیتالی تغییریافته می‌توانند از نزدیک نسخه اصلی را تقلید کنند و بیش از حد شخصی شوند. به عقیده چاندر اسکاران «این شامل همه‌چیز از جعل هویت صوتی و تصویری گرفته تا هنر جعلی و همچنین حملات هدفمند می‌شود» [18].

4-2-6. نگرانیهای شرکتها از عواقب حقوقی سوگیری الگوریتمی هوش ‌مصنوعی مولد

یکی از‌‌ مهم‌ترین نگرانی شرکت‌ها و کسب‌وکارها در استفاده از همه انواع‌‌ هوش ‌مصنوعی‌، مسائل مربوط به رعایت حقوق مالکیت فکری است. بااین‌حال، مدل‌های‌ هوش ‌مصنوعی مولد‌ به‌علت توانایی این مدل‌ها در گردآوری و دسترسی به داده‌ها و ارائه پاسخ‌های جدید و مستقل، بدون دخالت انسان، خطر بیشتری برای جستجوی داده‌های آموزشی در مقیاس وسیع، بدون در نظر گرفتن‌ تأیید سازنده دارند، که می‌تواند منجر به مشکلات کپی‌رایت و مالکیت فکری شود و مشاغل را در معرض اقدامات قانونی قرار دهد [19].

فناوری‌ هوش ‌مصنوعی مولد از شبکه‌های عصبی استفاده می‌کند که می‌توانند بر روی مجموعه‌های داده‌های موجود بزرگ آموزش داده شوند تا داده‌ها یا اشیا جدیدی مانند متن، تصاویر، صدا یا ویدئو را براساس الگوهایی که در داده‌های تغذیه شده تشخیص می‌دهد، ایجاد کند. این داده‌ها، به‌نوبه‌خود، می‌توانند برای پاسخ دادن به درخواستی که توسط شخص دیگری وارد‌‌ شده‌ است، استفاده شود، که احتمالاً اطلاعات خصوصی یا اختصاصی را در معرض دید عموم قرار می‌دهد. هرچه کسب‌وکارها بیشتر از این فناوری‌ استفاده‌ کنند، احتمال دسترسی دیگران به اطلاعات آنها بیشتر می‌شود [19].

آمازون قبلاً زنگ خطر را با کارمندان خود به صدا درآورده و به آنها هشدار داده است که کد را با چت ‌جی‌پی‌تی به اشتراک نگذارند. یک وکیل شرکت به‌طور خاص اعلام‌ کرد که ورودی‌های آنها می‌تواند به‌عنوان داده‌های آموزشی برای ربات مورد استفاده قرار گیرد و خروجی آینده آن می‌تواند شامل یا شبیه اطلاعات محرمانه آمازون باشد. همچنین، محتوای تولیدی‌ هوش ‌مصنوعی ایجاد شده براساس درخواست‌های یک سازمان می‌تواند حاوی IP شرکت دیگری باشد. این امر می‌تواند باعث ایجاد ابهام‌هایی در مورد نویسندگی و مالکیت محتوای تولید شده شود‌‌ و اتهامات احتمالی دزدی ادبی یا خطر دعوای حق نسخه‌برداری را افزایش دهد‌ [18].

سوگیری الگوریتمی منشأ و مصداق دیگری از احتمال مخاطرات قانونی است. مدل‌های‌ هوش ‌مصنوعی مولد، زمانی که بر روی داده‌های معیوب، ناقص یا غیرمعمول آموزش داده می‌شوند، نتایجی را ایجاد می‌کنند که از نظر سیستمی تعصب دارند و سوگیری پایین‌دستی را در مجموعه‌های داده منتشر کنند. بدون کنترل و نظارت، تعصب‌ هوش ‌مصنوعی در سیستم‌ها گسترش می‌یابد و بر تصمیم‌گیرندگان با تکیه ‌بر این نتایج تأثیر می‌گذارد و به‌طور بالقوه منجر به تبعیض می‌شود و بار حقوقی برای سازمان ایجاد می‌کند [19].

4-2-7. نحوه مدیریت کارکنان و جلوگیری از سوء‌استفاده آنها

استفاده از‌ هوش ‌مصنوعی مولد، کارایی بسیار خوبی را برای کسب‌وکار فراهم می‌کند، اما همچنین وسوسه‌های قدرتمندی برای‌ سوء‌استفاده توسط کارمندان ارائه می‌دهد. این امر در حال حاضر در حوزه آموزش و پژوهش بسیار مشهودتر از سایر حوزه‌هاست. مربیان ابراز نگرانی کرده‌اند که دانش‌آموزان می‌توانند از‌ هوش ‌مصنوعی مولد برای نوشتن مقالات و سایر تکالیف خود استفاده‌ کنند.‌ علاوه‌بر این، کارکنانی که از‌ هوش ‌مصنوعی مولد استفاده می‌کنند باید در اعمال شک و تردید حرفه‌ای و تأکید بیشتر بر تضمین کیفیت نتایج هوشیار باشند.‌ هوش ‌مصنوعی مولد محدودیت‌هایی در یادگیری نتایج «جدید» دارد، به این معنای که به آموزش و تحقیقات بیشتر، همراه با نظارت بر نتایج نهایی برای‌  تأیید اینکه مطابق با انتظارات ارائه می‌شود، نیاز است. اگر محتوای تولید شده توسط‌ هوش ‌مصنوعی حاوی اطلاعات نادرستی باشد، می‌تواند باعث هر تعداد شکست شود که می‌تواند بر نتایج کسب‌وکار تأثیر بگذارد یا مشکلات مربوط به مسئولیت را برای کسب‌وکار ایجاد کند [19]. برای مثال، ربات مولد‌ هوش ‌مصنوعی متا Galactica، برای فشرده کردن اطلاعات علمی برای کمک به دانشگاهیان و محققان در یافتن سریع مقالات و مطالعات ایجاد‌‌ شده ‌است. در عوض، مقادیر زیادی اطلاعات نادرست تولید کرد که به‌اشتباه از دانشمندان معتبر نقل کرده بود. عدم شفافیت در استفاده از محتوای مولد‌ هوش ‌مصنوعی نیز می‌تواند باعث ایجاد مشکلات اعتباری برای سازمان‌ها شود. ناشر فناوری CNET اخیراً به‌دلیل استفاده بی‌سر و صدا از این فناوری برای نوشتن 73 مقاله از نوامبر سال 2022 مورد انتقاد قرار گرفت، که برخی از آنها حاوی خطا بودند، حتی ناشری در وب‌سایت خود گفت که تیمی از ویراستاران در تولید محتوا «از ایده‌پردازی تا انتشار» درگیر هستند‌ [16].

یک‌ سوء‌استفاده مرتبط این است که کارمندان؛ کار‌ هوش ‌مصنوعی مولد را متعلق به‌خود واگذار کنند و برای ساعت‌ها کاری که درواقع انجام نداده‌اند، صورتحساب برای شرکت صادر کنند. مثالی جدی‌تر از‌ سوء‌استفاده کارکنان، استفاده از‌ هوش ‌مصنوعی مولد برای خودکارسازی تأییدیه‌ها یا بررسی‌های قانونی است که ممکن است اخلاقیات، انطباق، استقلال و یا سایر برنامه‌ها را تحت‌تأثیر قرار دهد و عواقب حقوقی نیز برای کسب‌وکار ایجاد کند.

 

4-3. چالشهای عمومی و اجتماعی مخاطرات هوش ‌مصنوعی مولد

برخلاف سیستم‌های‌ هوش ‌مصنوعی محدود که مضرات‌ آنها را می‌توان به تأثیرات پیش‌بینی‌های خاص و محدود به حوزه‌های مشخصی مرتبط کرد، آسیب‌های‌ هوش ‌مصنوعی مولد کمتر واضح است و نمی‌توان آن را به‌راحتی تعریف کرد. وقتی یک سیستم‌ هوش ‌مصنوعی با اطلاعات نادرست پاسخ می‌دهد مشخص نیست چه کسانی و در چه سطحی آسیب خواهند دید. آسیب‌هایی که از سیستم‌های‌ هوش ‌مصنوعی مولد نگران‌کننده‌تر هستند، آسیب‌هایی هستند که در طول زمان «افزایش می‌یابند». یک واقعیت اشتباه ممکن است ناچیز باشد، اما در سطح اجتماعی، اطلاعات نادرست می‌تواند تکثیر شود و عواقب جدی ایجاد کند، از اطلاعات غلط گرفته تا آسیب‌های بازنمایی که گروه‌های به حاشیه رانده شده را بدنام می‌کند. وقتی این آسیب‌ها جمع شوند، می‌توانند آثار مخرب جدی بر کل جامعه داشته باشند.

بنابراین، شناسایی و هدایت این چالش‌ها، تضمین آینده‌ای که در آن فناوری در خدمت بهترین منافع بشریت باشد، بسیار مهم است. برخی از مخاطرات مهم‌ هوش ‌مصنوعی مولد از منظر اجتماعی و عمومی در زیر به تفصیل شرح داده ‌شده‌اند.

4-3-1. مخاطرات دقت و صحت اطلاعات و نتایج

ابزارهای مولد‌ هوش ‌مصنوعی مانند‌ چت ‌جی‌پی‌تی به‌ مدل‌های زبان بزرگی که بر روی داده‌های انبوه آموزش ‌دیده‌اند، متکی هستند. برای پاسخ به یک سؤال یا ایجاد پاسخ به یک درخواست خاص، این مدل‌ها، اعلان را تفسیر می‌کنند و براساس داده‌های آموزشی خود پاسخی را از اساس تولید و القا می‌کنند. اگرچه مجموعه داده‌های آموزشی‌ آنها از میلیاردها پارامتر تشکیل‌ شده‌ است، اما آنها مجموعه‌های محدودی هستند و‌ مدل‌های مولد ممکن است هر از گاهی پاسخ‌هایی را ایجاد کنند که می‌تواند خطرات بالقوه زیادی را ازجمله موارد زیر ایجاد کند [20].

  • عدم تعمیم بر ویژگی: ازآنجایی‌که‌ مدل‌های مولد برای تعمیم داده‌هایی که روی‌ آنها آموزش دیده‌اند، طراحی شده‌اند، ممکن است همیشه اطلاعات دقیقی برای جستارهای خاص، ظریف یا خارج از نمونه تولید نکنند.
  • عدم امکان تأیید: مدل‌های مولد می‌توانند اطلاعاتی را تولید کنند که قابل‌قبول به‌نظر می‌رسد، اما نادرست است. در برخی موارد که‌ تأیید خارجی یا بررسی واقعیت امکان‌پذیر نیست، کاربران ممکن است گمراه شوند.
  • حقیقی نبودن منبع: هوش ‌مصنوعی مولد «منبع حقیقی» ذاتی ندارد و خروجی‌هایی را براساس الگوهای موجود در داده‌ها تولید می‌کند، نه به‌واسطه یک درک بنیادی با زمینه‌های انسانی، اخلاقی و تشخیصی.

4-3-2. مخاطرات سوگیری اجتماعی

‌‌هوش‌ مصنوعی مولد نسبت به سایر انواع هوش مصنوعی محدود پتانسیل بیشتری برای تداوم یا حتی تقویت سوگیری‌ها دارد و این امر یکی دیگر از نگرانی‌های مهم اجتماعی در این عرصه است. ازآنجایی‌که‌‌ مدل‌های مولد بر روی یک مجموعه داده خاص آموزش داده می‌شوند و در ارائه پاسخ‌ها مستقل عمل می‌کنند، سوگیری‌های موجود در این مجموعه می‌تواند باعث شود که مدل نیز محتوای مغرضانه تولید کند. سوگیری‌های‌ هوش ‌مصنوعی مولد می‌تواند شامل رویکردهای جنسیتی، نژادپرستانه یا آزار افراد کم‌توان و ناتوان در جوامع آنلاین باشد‌ [20].

برخی از مخاطرات سوگیری‌ هوش ‌مصنوعی مولد عبارتند از:

  • سوگیری نمایندگی: اگر گروه‌ها یا دیدگاه‌های اقلیت در داده‌های آموزشی ارائه شوند، مدل ممکن است خروجی‌هایی تولید نکند که منعکس‌کننده آن گروه‌ها باشد یا ممکن است آنها را نادرست معرفی کند. به‌عبارت‌دیگر داده‌ها باید جامع و سراسری باشند و تمام دیدگاه‌ها را نمایندگی کند.‌
  • تقویت سوگیریهای موجود: حتی اگر سوگیری اولیه در داده‌های آموزشی جزئی باشد،‌ هوش ‌مصنوعی مولد گاهی اوقات می‌تواند به‌دلیل روشی که برای الگوها و روندهای محبوب بهینه می‌کند، آن را تقویت کند. مثلاً در پژوهشی که در سال 2018 انجام شد، یک مدل ارزیابی سمیت محصول با 280 میلیارد پارامتر، افزایش شدید 30 درصدی در سطح سمیت را نسبت به یک مدل 117 میلیون پارامتری نشان داد [20].

4-3-3. حریم خصوصی دادهها و مخاطرات امنیتی

موضوع حریم خصوصی داده‌ها و اطلاعات، یکی از چالش‌های مشترک در توسعه همه انواع هوش مصنوعی است، اما این موضوع در استفاده از هوش مصنوعی مولد، نگرانی‌های بیشتری ایجاد کرده است.

ازآنجاکه هوش مصنوعی مولد، از داده‌های زیاد و عمومی و حتی غیر مرتبط برای آموزش خود و ارائه پاسخ استفاده می‌کند، مخاطرات متمایزی را در رابطه با حریم خصوصی داده‌های حساس ایجاد می‌کنند. برخی نگرانی‌های اصلی که در رابطه با حریم خصوصی در توسعه هوش مصنوعی وجود دارد و با به‌کارگیری هوش مصنوعی مولد جدی‌تر می‌شوند عبارتند از‌ [20]:

  • نشت دادهها: در هنگام استفاده از‌ هوش ‌مصنوعی که برای تولید محتوای جدید طراحی شده باشد، این احتمال وجود دارد که به‌طور ناخواسته، تکه‌هایی از داده‌های آموزشی بازتولید شوند و اگر داده‌های آموزشی حاوی اطلاعات حساسی باشد، خطر افشای آن وجود دارد.
  • سوء‌استفاده از دادههای شخصی: اگر‌ هوش ‌مصنوعی، به‌ویژه هوش مولد بر روی داده‌های شخصی مشتری بدون ناشناس‌سازی مناسب یا بدون کسب مجوزهای لازم آموزش ببیند، می‌تواند مقررات حفظ حریم خصوصی داده‌ها و استانداردهای اخلاقی را نقض کند.
  • مسائل مربوط به منبع داده و حق دسترسی به آن: با توجه به اینکه‌‌ مدل‌های مولد می‌توانند حجم وسیعی از محتوا را تولید کنند، ردیابی منبع هر قطعه خاص از داده ممکن است چالش‌برانگیز باشد. این می‌تواند به مشکلاتی در تعیین حقوق داده‌ها منجر شود.

4-3-4. مخاطرات مالکیت فکری

‌‌هوش‌ مصنوعی چالش‌های مختلفی را برای هنجارها و مقررات مالکیت فکری(IP) سنتی ایجاد می‌کند. در هوش مصنوعی مولد با قابلیت استقلال و اصالت در تولید محتوا، نگرانی‌هایی در مورد واجد شرایط بودن محتوای تولید شده توسط‌ هوش ‌مصنوعی برای حفاظت از حق نسخه‌برداری و نقض آن وجود دارد. با توجه به ماهیت پیچیده محتوای تولید شده توسط‌ هوش ‌مصنوعی پرداختن به ملاحظات و ابعاد مختلف آن از لحاظ حقوق اجتماعی و عمومی افراد بسیار دشوار است [20].

برخی از خطرات و نگرانی‌های اولیه‌ هوش ‌مصنوعی مولد در مورد مالکیت فکری عبارتند از:

  • اصالت و مالکیت: اگر یک‌ هوش ‌مصنوعی مولد یک قطعه موسیقی، هنری یا نوشتاری ایجاد کند، حق چاپ متعلق به چه کسی است؟ توسعه‌دهنده‌‌ هوش ‌مصنوعی‌‌ و کاربری که آن را اجرا کرده است، یا می‌توان گفت که‌ ازآنجاکه هیچ انسانی مستقیماً آن را ایجاد نکرده، بنابراین واجد شرایط حقوق مالکیت فکری نیست؟ وقتی صحبت از تولید‌ هوش ‌مصنوعی می‌شود، این مفاهیم مشکل‌ساز هستند.
  • مجوز و حقوق استفاده: چگونه باید قوانین و مقررات مالکیت فکری و اصول جهانی پذیرش یک محصول یا فرایند به‌عنوان مصداق مالکیت فکری ازجمله دارا بودن شرایط ثبت، مالک و حقوق بهره‌برداری را با شرایط‌ هوش ‌مصنوعی مولد انطباق داده و پیاده‌سازی کرد و آیا نیاز به حقوق جدید با محتوای جدید برای‌ هوش ‌مصنوعی مولد وجود دارد یا خیر؟
  • نقض حقوق مالکیت فکری افراد: مدل‌های مولد می‌توانند ناخواسته خروجی‌هایی تولید کنند که شبیه آثار دارای حق مالکیت فکری هستند. ازآنجایی‌که آنها بر روی حجم وسیعی از داده‌ها آموزش ‌دیده‌اند، به‌طور ناخواسته دنباله‌ها یا الگوهایی را که اختصاصی هستند و ممکن است برای مثال دوباره همان اثری هنری را ایجاد کنند که مصداق نقض حقوق مالک فکری آن اثر محسوب شود.

4-3-5. مخاطرات سرقت ادبی، تقلب علمی و تشخیص آن

 گسترش محتوای تولید شده توسط‌ هوش ‌مصنوعی می‌تواند زمینه‌های سرقت ادبی و تقلب علمی را افزایش داده و تشخیص آنها را نیز چالش‌برانگیزتر کند. اگر دو مدل‌ هوش ‌مصنوعی آموزش‌دیده بر روی مجموعه داده‌های مشابه، خروجی‌های مشابهی تولید کنند، تمایز بین محتوای اصلی و مطالب سرقت شده پیچیده می‌شود.

4-3-6. مخاطرات اخلاقی

در طول سال‌ها، گفتمان‌ قابل‌توجهی در مورد اخلاق‌ هوش ‌مصنوعی وجود داشته است. بااین‌حال، بحث اخلاقی به‌طور خاص در مورد‌ هوش ‌مصنوعی مولد نسبتاً جدید است. زیرا سامانه‌های هوش مصنوعی مولد از حالت یک توصیه‌گر فراتر رفته و در حال تولید و خلق محتواهایی هستند که ممکن است هیچ پیش زمینه قبلی در مورد آنها وجود نداشته باشد. این نوع سامانه‌ها با نزدیک شدن به سطوح بالای هوش و قابلیت‌های انسانی، پتانسیل زیادی برای القای پاسخ‌ها و راه‌حل‌های خود به انسان و یا رقابت و جایگزینی با انسان دارند. ازجمله ابعاد این مخاطرات که در حوزه اخلاق قابل بررسی هستند عبارتند از‌ [20]:

  • گسترش جعل عمیق (دپ‌فیک) و حملات سایبری: بزرگ‌ترین نگرانی اخلاقی در مورد‌ هوش ‌مصنوعی مولد، گسترش جعل عمیق و‌ سوء‌استفاده از آن است. مدل‌های تولیدی اکنون می‌توانند تصاویر، فیلم‌ها و حتی صداهای افراد واقعی را تولید کنند. تشخیص چنین محتوای تولید شده با‌ هوش ‌مصنوعی از رسانه‌های واقعی دشوار یا غیرممکن است و پیامدهای اخلاقی جدی به‌همراه دارد. این نسل‌ها ممکن است اطلاعات نادرست را منتشر کنند، به‌کمک آنها ادعاهای حقوقی تقلبی (مثلاً درخواست بیمه) مطرح کنند، افکار عمومی را دست‌کاری کنند، یا حتی افراد را مورد آزار یا بدنامی قرار دهند.‌ هوش ‌مصنوعی مولد همچنین خطرات امنیت سایبری را نیز افزایش می‌دهد. مجرمان سایبری می‌توانند از این فناوری برای ایجاد کلاهبرداری‌های فیشینگ واقعی‌تر و پیچیده‌تر یا اعتبار برای هک کردن سیستم‌ها‌ استفاده‌ کنند.
  • فرسایش خلاقیت انسان: اتکای بیش از حد به‌ هوش ‌مصنوعی مولد برای کارهای خلاقانه می‌تواند به‌طور بالقوه ارزش خلاقیت و اصالت انسان را کاهش دهد. اگر محتوای تولید شده توسط‌ هوش ‌مصنوعی به یک هنجار تبدیل شود، می‌تواند منجر به یکسان‌سازی آثار فرهنگی و خلاقانه شود.
  • احتمال افزایش بیکاری: به‌طورکلی، سامانه‌های هوش مصنوعی قادرند در برخی از مشاغل به‌ویژه مشاغلی که فیزیکی و مستمر هستند، جایگزین انسان شوند. هوش مصنوعی مولد‌ به‌علت پتانسیل تقلید هرچه بیشتر از انسان و دستیابی به سطح هوش و شعور انسانی، ممکن است مشاغل را در زمینه‌هایی که وابسته به تصمیم و خلاقیت انسانی است. مانند نویسندگی، طراحی، موسیقی، قضاوت و موارد دیگر جایگزین کند. این می‌تواند منجر به از دست دادن شغل و تغییرات اقتصادی شود که پیامدهای اخلاقی و اجتماعی برای جوامع به‌همراه دارد.
  • نگرانیهای زیستمحیطی: آموزش‌‌ مدل‌های مولد بزرگ به منابع محاسباتی‌ قابل‌توجهی نیاز دارد که می‌تواند رد پای کربن قابل‌توجهی داشته ‌باشد. این امر سئوالات اخلاقی را در مورد تأثیر زیست‌محیطی توسعه و استفاده از چنین مدل‌هایی ایجاد می‌کند.

 

4-3-7. ناشناختگی و پیچیدگی انطباق با مفاهیم و چارچوبهای موجود درباره ارزیابی آسیب و خسارت

برخلاف سیستم‌های‌ هوش ‌مصنوعی‌ محدود که مضرات‌ آنها را می‌توان به تأثیرات پیش‌بینی‌های خاص مرتبط کرد، آسیب‌های‌ هوش ‌مصنوعی مولد کمتر واضح است و نمی‌توان آن را به‌راحتی تعریف کرد. وقتی یک سیستم‌ هوش ‌مصنوعی مولد با اطلاعات نادرست پاسخی را تولید و القا می‌کند و این پاسخ پذیرش می‌شود‌ تعیین افراد و گروه‌هایی که آسیب‌ دیده‌اند و سطح آسیب مشخص نیست. آسیب‌های سامانه‌های‌ هوش ‌مصنوعی مولد‌ از این بابت نگران‌کننده‌تر از آسیب‌های سایر انواع هوش مصنوعی محدود هستند که در طول زمان «افزایش می‌یابند». یک واقعیت اشتباه ممکن است ناچیز باشد، اما در سطح اجتماعی، اطلاعات نادرست می‌تواند تکثیر شود و عواقب جدی ایجاد کند. وقتی این آسیب‌ها جمع شوند، می‌توانند آثار مخرب جدی بر کل جامعه‌ داشته‌ باشند [20].

در ادامه نیز، به همین ترتیب، همان‌طور که ارزیابی آسیب‌های خاص سیستم‌های‌ هوش ‌مصنوعی مولد به‌عنوان آسیب‌های واقعی بسیار دشوار و ناشناخته ‌است، مجازات‌ها یا غرامتی که برای هر رفتار غیرقانونی پس از تعریف آن اعمال می‌شود، نامشخص است. حتی در حوزه استفاده از هوش مصنوعی محدود نیز این پیچیدگی‌ها و ابهام‌ها هنوز وجود دارد. برای مثال، با تمرکز بر موضوع حریم خصوصی، گوگل تصاویری از خانه‌ای در پنسیلوانیا گرفت که متعلق به خانواده Boring بود. ویژگی «نمای خیابان» در Google Maps منجر به ارائه این تصاویر شده بود. Borings به‌دلیل نقض حریم خصوصی به دادگاه شکایت کرد و با اینکه پیروز شد، فقط 1 دلار غرامت دریافت کرد‌ [20].

درباره هوش مصنوعی مولد، ابهام‌ها و پیچیدگی‌ها بسیار بیشتر است. زیرا با فرض اینکه دولت‌ها بتوانند سطح مخاطره را در‌‌ هریک از انواع هوش مصنوعی ازجمله هوش مصنوعی مولد تعیین کنند، تعیین نوع مجازات‌ها، زمان اعمال و حتی در قدم اول، اینکه چه کسی مسئول خطا و جرم است (‌‌هوش‌ مصنوعی مولد یا توسعه‌دهنده آن) مسائل پیچیده حقوقی و قضایی هستند که باید مورد بررسی قرار گیرند.

البته از منظر فنی و فناورانه، رویکردهایی توسط محققان شرکت‌های هوش مصنوعی ازجمله Anthropic که پیشگام این حوزه بوده است، ارائه شده و آن «‌‌هوش‌ مصنوعی اساسی» نامیده می‌شود. این تکنیک به یک سیستم‌ هوش ‌مصنوعی اجازه می‌دهد تا محتوای یک سیستم‌ هوش ‌مصنوعی دیگر را کنترل کند و در صورت عدم انطباق با ارزش‌های انسانی امکان خروج وجود داشته ‌باشد. درواقع همسو کردن رفتار‌ هوش ‌مصنوعی با «دستورالعمل‌های اساسی» تعریف شده توسط اصول انسانی ازجمله مواردی مانند اجتناب از آسیب، احترام به ترجیحات‌‌ و ارائه اطلاعات واقعی مدنظر است. تا به امروز تحقیقات نشان‌ می‌دهد که این ممکن است یک روش قابل‌اعتماد و مقیاس‌پذیر برای نظارت بر سیستم‌های‌ هوش ‌مصنوعی مولد باشد. رویکرد (‌‌هوش‌ مصنوعی اساسی)، منجر به نظارت بر‌ هوش ‌مصنوعی قبل از اینکه محتوای خود را به کاربر ارائه دهد می‌شود؛ لذا به‌طورکلی به‌جای اینکه تمرکز را به ‌بعد از آسیب و شناخت ابعاد آن منتقل کند،  تلاش می‌کند  از آسیب جلوگیری کند‌ [20].

 

5.پیش‌نیازهای اصلی توسعه هوش ‌مصنوعی مولد

محورها و پیش‌نیازهای اصلی توسعه‌ هوش ‌مصنوعی مولد با هدف به حداقل رساندن‌ چالش‌ها و مخاطرات آن از منظر سیاستی در دو لایه کلان قابل دسته‌بندی است:

 

5-1. لایه زیرساختی و فنی با هدف پایداری و ایمنی حداکثری سیستم

به‌لحاظ فنی و عملیاتی راه‌حل‌هایی برای رفع چالش‌هایی نظیر تأمین داده‌های با کیفیت، حفاظت از داده‌ها، بهبود دقت و سرعت پردازش و ارزیابی عملکرد مدل‌ها قابل پیاده‌سازی است که ازجمله آنها می‌توان به موارد زیر اشاره کرد‌ [21و22]:

  • استفاده از دادههای مصنوعی

داده‌های مصنوعی تولید شده از داده‌های واقعی تقلید می‌کنند. داده‌های مصنوعی می‌توانند داده‌های موجود را افزایش دهند، هزینه‌های جمع‌آوری داده‌ها و برچسب‌گذاری را کاهش دهند و از مسائل مربوط به حریم خصوصی و امنیت داده‌ها جلوگیری کنند.

  • یادگیری انتقالی

تکنیکی است که دانش و مهارت‌های آموخته شده را از یک حوزه یا وظیفه به حوزه یا وظیفه دیگری به‌کار می‌گیرد. یادگیری انتقالی می‌تواند داده‌ها و الزامات محاسباتی را کاهش دهد و عملکرد و تعمیم مدل‌ها را بهبود بخشد.

  • کاهش سوگیری

به‌ کمک استفاده از داده‌های آموزشی حسابرسی شده، منابع متنوع و بهره‌گیری‌ از تکنیک‌های کاهش سوگیری، الگوریتم‌های را به‌نحوی توسعه داد که سوگیری‌ها را کاهش دهند.

  • محاسبات ابری

یکی از راه‌حل‌های رفع چالش‌های محاسباتی‌ پیش‌روی توسعه‌ هوش ‌مصنوعی مولد، استفاده از محاسبات ابری است که سرویسی است که دسترسی براساس تقاضا به سرورهای راه دور، ذخیره‌سازی و شبکه‌ها را فراهم می‌کند. رایانش ابری می‌تواند مقیاس‌پذیری، انعطاف‌پذیری و‌‌ مقرون‌به‌صرفه بودن را برای کاربران و ارائه‌دهندگان‌ هوش ‌مصنوعی مولد ارائه دهد.

  • محاسبات توزیعشده

محاسبات توزیع‌شده سیستمی است که وظایف و داده‌ها را بین چندین دستگاه یا گره تقسیم می‌کند. فناوری‌های مرتبط در این حوزه می‌تواند سرعت، قابلیت اطمینان و امنیت‌‌ مدل‌های مولد‌ هوش ‌مصنوعی را افزایش دهد.

  • فشرده‌سازی مدل و کاهش تأخیر

استفاده از فشرده‌سازی مدل‌ها تکنیکی است که اندازه، پیچیدگی یا افزونگی مدل‌ها را کاهش می‌دهد و باعث کاهش تأخیر (کاهش زمان صرف شده توسط یک مدل برای پیش‌بینی یا استنتاج نتیجه) می‌شود. فشرده‌سازی مدل می‌تواند کارایی، عملکرد و قابلیت حمل مدل‌ها را بهبود بخشد. فشرده‌سازی مدل، فرایندی است برای استقرار‌‌ مدل‌های یادگیری عمیق SOTA بر روی دستگاه‌های لبه‌ای که قدرت محاسباتی و حافظه پایینی دارند، بدون اینکه به عملکرد مدل‌ها از نظر دقت، یادآوری و غیره آسیبی وارد شود.

  • کاهش اندازه

کاهش اندازه بر ساده‌تر کردن مدل با کاهش پارامترهای مدل، درنتیجه کاهش نیازهای RAM در اجرا‌‌ و نیازهای ذخیره‌سازی در حافظه تمرکز دارد.

 

5-2. لایه تنظیم‌گری با هدف مدیریت مخاطرات احتمالی

‌‌هوش‌ مصنوعی مولد در حال تبدیل شدن به یک تکنیک قدرتمند در خلق و تولید محتوا و راه‌حل‌هاست. با این مجموعه روبه‌رشد از قابلیت‌ها، استفاده مطمئن از‌ هوش ‌مصنوعی مولد باعث ایجاد اعتماد در نتایجی می‌شود که خلق می‌کند. مخاطرات احتمالی با پیشرفت و فراگیرتر شدن فناوری‌ها و توسعه هوش مصنوعی عمومی رشد خواهند یافت و آشنایی با این مخاطرات و کنترل آنها در سطوح مختلف از سیاست‌گذار گرفته تا توسعه‌دهنده، مشاغل و جامعه، تضمینی بر توسعه هوشمندانه این فناوری و کاربردهای آن خواهد بود. در این راستا رویکردهای زیر مورد توجه قرار گرفته است:

  • تلاشهای حقوقی و قانونی در قالب سیاستها، مقررات و دستورالعملها

قانونگذاری و تنظیم‌گری در حوزه هوش مصنوعی با تعریف سطح مخاطره سامانه‌های هوش مصنوعی و دسته‌بندی سامانه‌ها براساس سطح مخاطره آغاز می‌شود. هرچه سطح مخاطره افزایش یابد، تدوین مقررات، دستورالعمل‌ها و توصیه‌نامه‌ها برای تحقق هوش مصنوعی پاسخ‌گو و مسئولیت‌پذیر به‌ویژه در حوزه هوش مصنوعی مولد، اهمیت بیشتری می‌یابد. اغلب تلاش‌های حقوقی انجام شده با تأکید بر توسعه این فناوری بوده است و کشورها تمرکز خود را اغلب بر بومی‌سازی انواع‌ هوش ‌مصنوعی و برنامه‌های دیجیتالی قرار داده‌اند. درعین‌حال، این برنامه‌ها ناظر به تعیین یک چارچوب اخلاقی و حقوقی است تا اطمینان حاصل شود توسعه و به‌کارگیری‌ هوش ‌مصنوعی منطبق با حقوق و ارزش‌های اساسی آن کشور است و اتحادیه اروپا در این میان یکی از پیشروان تعیین چارچوب مدون اخلاقی حقوقی محسوب‌ می‌شود. بسیاری از کشورها برای بررسی و بومی‌سازی پیشرفت‌های‌ هوش ‌مصنوعی نهادهای ویژه‌ای را انتخاب یا ایجاد کرده‌اند که محورهای اساسی سیاست‌گذاری، رویکرد در قانونگذاری، اجرا، نظارت و اقدامات پیشگیرانه را در بستری شفاف مدیریت کند.

این نکته را باید تأکید کرد که استفاده حکمرانان از ابزارهای حقوقی در مواجهه با‌ هوش ‌مصنوعی به یک شیوه نیست. برخی با رویکرد توسعه‌محور معتقدند باید زمینه توسعه فناوری‌های نوظهور را فراهم کرد و پس از گسترش فناوری‌های هوشمند در زندگی اجتماعی و فردی و شناسایی‌ چالش‌ها و مشکلات به تنظیم‌گری پرداخت. برخی نیز با در نظر گرفتن رشد سریع هوش مصنوعی مولد و فراگیر شدن استفاده از آن در سطح عمومی، کاملاً به رویکردهای احتیاطی و تا حد ممکن کنترل‌کننده و تنظیم‌کننده گرایش دارند و تلاش می‌کنند با شناسایی پیشینی ابعاد چالش‌برانگیز این فناوری در مورد حد و حدود توسعه انواع‌ هوش ‌مصنوعی تصمیم‌گیری کنند. بااین‌حال به‌نظر نمی‌رسد هر دوی این رویکردها بتواند در مقایسه با سرعت تطبیق و توانمندی‌ هوش ‌مصنوعی در آمیخته شدن با زندگی بشر که همراه با مزایای و مخاطرات است، به‌اندازه کافی اثربخش باشد. اتخاذ رویکرد بینابینی توسعه و تنظیم و ایجاد یک تعادل راهبردی بسیار مهم است [8]. سرمایه‌گذاری در صنایع مرتبط با سایر شاخه‌های‌ هوش ‌مصنوعی از طرفی وابسته به چارچوب‌ها و اولویت‌هایی است که نهادهای توسعه‌دهنده و تنظیم‌گر این فناوری باید به‌دقت آنها را شناسایی کرده و لحاظ کنند و ازسویی ممکن است تحت‌تأثیر نگرانی از مخاطرات‌ هوش ‌مصنوعی قرار گرفته و توسعه این حوزه را مخصوصاً در هوش مصنوعی مولد به‌علت محدودیت‌های سخت‌گیرانه با چالش مواجه سازد. لذا در عین حساس بودن به مواردی‌ مانند‌ محرمانه‌بودن، حریم خصوصی و‌ سوء‌استفاده از اطلاعات اختصاصی، بسیار مهم است که شرکت‌ها را برای پذیرش سریع‌‌ مدل‌های جدید‌ هوش ‌مصنوعی مجهز کنیم؛ تا بتوانند در موج بعدی نوآوری به شیوه‌ای مسئولانه و اخلاقی شرکت کنند. همکاری‌های ملی و بین‌المللی مشترک و استفاده از تجارب دیگران می‌تواند برای ارائه راه‌حل در مواجهه با‌ چالش‌ها و مخاطرات و ایجاد قواعد حقوقی متناسب با فرهنگ بومی راهگشا باشد [8].

 

  • حاکمیت هوش ‌مصنوعی مسئولانه (مسئولیتپذیر) با تأکید بر افزایش سواد دیجیتالی در جامعه

همگام با پیشرفت فناوری‌های هوش مصنوعی و ظهور هوش مصنوعی مولد، اتحادیه اروپا با تصویب قانون‌ هوش ‌مصنوعی و مجموعه قوانین و دستورالعمل‌هایی مرتبط با این حوزه تلاش کرده است به‌عنوان یک پیشرو، چارچوبی از‌ هوش ‌مصنوعی مسئولیت‌پذیر را تبیین کند. قانون حفاظت از داده اتحادیه اروپا که تحت‌عنوان قانون حفاظت از داده‌های عمومی (GDPR) شناخته می‌شود، یکی از قوی‌ترین چارچوب‌های حقوقی حفظ حریم خصوصی در جهان است. اگرچه این پیش‌نویس توسط اتحادیه اروپا (EU) تهیه و تصویب شد، اما تا زمانی که شرکت‌ها و سازمان‌ها در هر کجا، داده‌های مربوط به افراد در اتحادیه اروپا را هدف قرار داده یا جمع‌آوری کنند تعهداتی را بر آنها تحمیل می‌کند. این مقررات در 25 مه سال 2018 به اجرا گذاشته شد. GDPR جریمه‌های سنگینی را علیه افرادی که استانداردهای حریم خصوصی و امنیتی آن را نقض می‌کنند وضع کرده که مجازات آن به ده‌ها میلیون یورو می‌رسد. با وجود این مواضع قاطع و سرسختانه، اتحادیه اروپا در تدوین اصول و چارچوب‌های توسعه‌ هوش ‌مصنوعی مسئولیت‌پذیر نیز در سطح جهان پیشتاز است.

‌‌هوش‌ مصنوعی مسئولیت‌پذیر مجموعه‌ای از چارچوب‌ها، کنترل‌ها، فرایندها و ابزارهاست تا اطمینان حاصل شود که سیستم‌های‌ هوش ‌مصنوعی به شیوه‌ای قابل‌اعتماد و اخلاقی طراحی و اجرا می‌شوند تا شرکت‌ها بتوانند ارزش را تسریع کنند. شکل ۱، چارچوب‌ هوش ‌مصنوعی مسئولیت‌پذیر را نشان ‌می‌دهد. این چارچوب همه ابعاد فنی، اخلاقی و اجتماعی توسعه و به‌کارگیری‌ هوش ‌مصنوعی را دربر می‌گیرد.

 

شکل 1. چارچوب هوش ‌مصنوعی مسئولیتپذیر

 

Source: kpmg.com, 2023.

 

در سال 2019، راهنمای اصول اخلاقی در حوزه قابلیت اعتماد در هوش مصنوعی در اتحادیه اروپا مصوب شد و به دنبال آن، در 13 مارس سال 2024، کلیات اولین قانون جامع هوش مصنوعی توسط اتحادیه اروپا به تصویب رسید و در ماه می ‌یا ژوئن نهایی خواهد شد. این قانون به‌مثابه یک چارچوب نظارتی انسان‌محور، براساس ریسک‌‌های بالقوه و سطح تأثیر آنها، الزاماتی را برای فناوری‌های مختلف در این حوزه تعیین کرده و در عین توجه به توسعه نوآوری، حفظ حقوق شهروندی و شفافیت را به‌ویژه در مورد سامانه‌های پر مخاطره در دستور کار قرار داده است. هرچه ریسک سامانه‌های چندمنظوره هوش مصنوعی بیشتر باشد، الزامات بیشتری از قبیل ارزشیابی مدل، ارزیابی و کاهش ریسک‌‌های سیستمی و گزارش‌‌دهی رویدادها به آنها اعمال می‌شود [23].

در آمریکا نیز نظر به اهمیت‌ هوش ‌مصنوعی و توجه به الزامات حقوقی مرتبط با آن یک آیین‌نامه اجرایی که عمدتاً بر رعایت اصول اخلاقی، ایمنی، امنیت و مسئولیت اجتماعی‌ هوش ‌مصنوعی تأکید دارد تحت عنوان آیین‌نامه «چارچوب مدیریت ریسک‌‌ هوش ‌مصنوعی»، در 30 اکتبر سال 2023 منعقد شده است. بر این اساس توسعه‌دهندگان‌ هوش ‌مصنوعی موظف هستند هرگونه آزمایش و اطلاعات مرتبط با امنیت و ایمنی‌ هوش ‌مصنوعی را‌‌ مبتنی‌بر استانداردهای تعیین شده انجام داده و به‌منظور ممانعت از وقوع تهدیدهای احتمالی نظیر امنیت سایبری، حقوق مدنی و آثار آن بر بازار کار، مستقیماً تحت نظارت دولت باشند [24].

گفتگوهای جهانی درباره توسعه ایمن و مسئولانه هوش مصنوعی شدت زیادی به‌خود گرفته است و سازمان ملل در آخرین اقدام خود، هیئت مشاوره‌‌ای هوش مصنوعی ایجاد کرده که هدف آن بررسی چالش‌های نظارت بین‌المللی بر هوش مصنوعی و تقویت همکاری بین‌المللی در زمینه حکمرانی هوش مصنوعی است[25].

با وجود یک برنامه‌ هوش ‌مصنوعی مسئول، سازمان‌ها می‌توانند با توسعه فرایندها و رویه‌ها در مورد استفاده از‌ هوش ‌مصنوعی مولد حرکت رو به جلو را آغاز کنند. این تلاش‌ها می‌تواند شامل موارد زیر باشد:

  • شناسایی ذی‌نفعان مناسب از سازمان و آموزش اولیه در مورد فناوری، مزایا و خطرات احتمالی آن.
  • ایجاد یک دیدگاه داخلی اولیه برای سازمان به‌منظور ترغیب کارکنان به تفکر در مورد‌ هوش ‌مصنوعی مولد.
  • اولویت‌بندی ریسک‌ها و واگذاری مالکیت به گروه‌های ذی‌نفع برای رسیدگی به توسعه از طریق چرخه عمر تولید.
  • در نظر گرفتن اصول حاکمیت‌ هوش ‌مصنوعی سازمان (هم‌راستا با چشم‌انداز نظارتی) که استفاده مسئولانه از‌ هوش ‌مصنوعی مولد را تشویق می‌کند.

به این ترتیب نهادها قادرند به‌سمت ایجاد ساختار حاکمیتی و مجموعه‌ای از اصول حرکت کنند تا آنها را در تصمیم‌گیری در مورد استفاده اخلاقی از داده‌ها و‌ هوش ‌مصنوعی راهنمایی کند، سواد دیجیتالی را بهبود بخشد و از تکنیک‌های تحلیلی پیشرفته (مانند‌ هوش ‌مصنوعی مولد) و ایجاد گردش کار و اعتبارسنجی خودکار برای اجرای استانداردهای‌ هوش ‌مصنوعی در طول توسعه از طریق چرخه عمر تولید بهره‌مند شود [26].

 

6. جمع‌بندی و نتیجه‌گیری

با گذر هرچه بیشتر زمان، پیشرفت‌های سریع و تعجب‌آور فناوری‌‌‌ هوش‌ مصنوعی در ارائه خدمات و کاربردها نظر کشورها و سازمان‌های بین‌المللی را بیش‌ازپیش به‌خود جذب کرده است. هرچند سامانه‌های هوش مصنوعی محدود با وظایف مشخص سابقه‌‌ای طولانی دارند، اما‌‌ مدل‌های هوش مصنوعی عمومی و مولد، سامانه‌های همه‌منظوره‌ بسیار توانمندی هستند که می‌توانند طیف گسترده‌ای از وظایف را انجام دهند و با توانمندی‌های انسانی مطابقت کنند یا حتی از آن فراتر روند. این فناوری، فرصت‌های زیادی را‌ پیش‌روی بشر قرار داده و پژوهشگران معتقدند در آینده، حوزه‌های مختلف در صنعت، سلامت، انرژی، کشاورزی، حمل‌ونقل، امور اقتصادی، آموزش و پژوهش، محیط زیست و حتی حکمرانی کلان با‌ هوش ‌مصنوعی مولد و خدمات و محصولات آن به‌شدت گره خواهد خورد. با توجه به کارکردهای متفاوت و متنوع و درعین‌حال ملاحظات احتیاط‌آمیز در بهره‌برداری و دستیابی به منافع‌ هوش ‌مصنوعی مولد با ویژگی‌هایی مانند استقلال و خلاقیت در تولید محتوا، پاسخ و انجام اقداماتی که به سطح هوش و درک انسانی نزدیک است، استفاده مؤثر و معنادار از این فناوری و استقرار‌ هوش ‌مصنوعی مسئولیت‌پذیر، مستلزم هماهنگی و انسجام عوامل و بازیگران متعددی در این زیست‌بوم است. توسعه‌دهندگان، استقراردهندگان، قانونگذاران، سیاست‌گذاران، تنظیم‌گران، ناظران و کاربران همگی ابعاد جدایی‌ناپذیر از زیست‌بوم هستند که باید به‌طور متوازن در پیشبرد اهداف و برنامه‌های توسعه انواع‌ هوش ‌مصنوعی دیده شوند. برنامه‌های توسعه‌ هوش ‌مصنوعی نیز باید نسبت به اصول و ارزش‌های اخلاقی و عرفی جوامع وفادار بوده و به‌لحاظ فنی و اجتماعی مستحکم باشد و به‌طور دوجانبه با قوانین و مقررات انطباق یابند.

چالش‌های‌ پیش‌روی توسعه‌ هوش ‌مصنوعی مولد را نمی‌توان از چالش‌هایی که‌ به‌طورکلی در‌ پیش‌روی توسعه همه انواع هوش مصنوعی وجود دارد متفاوت دانست. هرچند با پیشرفت قابل‌ توجه هوش مصنوعی عمومی و نزدیک شدن آن به سطوح بالای هوش انسانی، میزان مخاطره‌آمیز بودن هوش مصنوعی مولد و تبدیل شدن آن به ابرهوش مصنوعی افزایش می‌یابد و ضرورت ایجاد زیرساخت‌های پایدار را بیشتر می‌کند. چالش‌های مرتبط از منظر عملیاتی و فنی، کسب و کاری و اجتماعی قابل بررسی هستند.

چالشهای فنی و علمیاتی عمدتاً مرتبط با زیرساخت‌های داده و محاسبات هستند و ملاحظاتی از قبیل لزوم دسترسی به داده زیاد، با کیفیت و متنوع، امنیت و حفاظت از داده‌های داخلی، کاهش سوگیری داده‌های آموزشی و قابلیت توضیح و اعتماد مدل، کاهش توهمات‌‌ هوش ‌مصنوعی، تأمین زیرساخت‌های سخت‌افزاری و نرم‌افزاری محاسباتی و حتی تأمین انرژی مورد نیاز برای محاسبات به‌علت حجم بالای پردازش را دربر می‌گیرند. ازاین‌رو‌‌ مهم‌ترین محورهای اولویت‌دار از ابعاد فنی و عملیاتی عبارتند از:

  • تدوین چارچوبهای مورد نیاز و استانداردهای لازم در توسعه و پیاده‌سازی انواع هوش ‌مصنوعی براساس سطح مخاطره و حمایت از توسعه‌ نوآوری و فناوری

‌‌هوش‌ مصنوعی قابل‌اعتماد و پایدار از مستلزم در اختیار داشتن داده‌های دقیق و جامع است. داده‌های مورد استفاده برای آموزش مدل‌های‌ هوش ‌مصنوعی ازجمله هوش مصنوعی مولد باید دقیق و کامل باشند. الگوریتم‌های‌ هوش ‌مصنوعی مولد بیش از سایر انواع هوش مصنوعی محدود برای یادگیری و تصمیم‌گیری به داده‌های با کیفیت تکیه می‌کنند و کیفیت پایین داده یا عدم جامعیت داده می‌تواند نتایج سوگیرانه یا نادرست را در بهره‌برداری از هوش مصنوعی مولد افزایش دهد. ازاین‌رو تدوین چارچوب‌های مورد نیاز و استانداردهای لازم در توسعه و پیاده‌سازی انواع‌ هوش ‌مصنوعی براساس سطح مخاطره آنها در عین حمایت از توسعه نوآوری و فناوری‌، ازجمله راهبردهای ضروری توسعه‌ هوش ‌مصنوعی مولد است.

  • تسهیل دسترسی به داده و‌‌ سامان‌دهی و شفافیت مدیریت داده و اطلاعات

دسترسی به داده‌ها و اطلاعات در عین امنیت و حفاظت از داده‌ها در مسیر صیانت از حقوق افراد و مصالح عمومی سنگ‌بنای توسعه‌ هوش ‌مصنوعی به‌ویژه‌ هوش ‌مصنوعی مولد است. به همین منظور، مدیریت داده از‌‌ مهم‌ترین اولویت‌ها و پیش‌نیازهای این عرصه به‌شمار می‌رود. در این زمینه، زیست‌بوم داده از تولید آن تا ذخیره، پردازش، استفاده و تبادل آن توسط ذی‌نفعان و همچنین امنیت و حقوق مالکیت داده باید مورد توجه و نظارت باشد. در این راستا تکمیل یا ایجاد زیرساخت‌های حقوقی یا قانونی مرتبط با داده می‌تواند از ابعاد زیر دنبال شود:

-مدیریت داده و اطلاعات: تکمیل و بهبود قانون مدیریت داده‌ها و اطلاعات ملی مصوب 1401- ضوابط مرتبط با پردازش داده‌های شخصی افراد و استفاده تجاری یا غیرتجاری از این داده‌ها توسط انسان یا سامانه‌های هوش مصنوعی مولد در قالب تدوین طرح / لایحه حفاظت و حمایت از داده‌های شخصی و حریم خصوصی.

-امنیت داده: بهروزرسانی و انطباق قوانین موجود با مصادیق و موضوعات هوش ‌مصنوعی مولد ازجمله قانون جرائم رایانه‌ای مصوب 1388‌، قانون تجارت الکترونیک مصوب 1382 و احکام مرتبط در قوانین مجازات اسلامی و حقوق مدنی - ایجاد زیرساخت‌های قانونی ویژه هوش ‌مصنوعی مولد در کنترل و سطح مسئولیت و خودمختاری.

-حقوق و مالکیت داده و اطلاعات: انطباق قوانین مرتبط با حمایت از مالکیت فکری با موضوعات هوش ‌مصنوعی مولد ازجمله قانون حمایت از مالکیت صنعتی- مصوب صحن مجلس در 1400/9/21- قانون حمایت از حقوق پدیدآورندگان نرم‌افزارهای رایانه‌ای مصوب 1379- قانون حمایت حقوق مؤلفان و مصنفان و هنرمندان مصوب 1348 .

-توسعه اصول، دستورالعمل‌ها و مقررات برای حاکمیت هوش ‌مصنوعی مسئولیتپذیر (با تأکید بر هم‌افزایی و انسجام سیاستی این حوزه در ذیل دستگاههای اجرایی): ایجاد دستورالعمل‌ها و کدهای اخلاقی در بهبود به‌کارگیری و استفاده اخلاقی از داده‌ها، افزایش شفافیت و پاسخ‌گویی، اعتبارسنجی‌ هوش ‌مصنوعی با توجه به ماهیت هر نوع بهره‌برداری (هوشمند یا غیر هوشمند- مخاطره‌آمیز یا رایج) و ارزیابی.

 

  • ارتقای زیرساخت‌های پردازشی و ارتباطی

به‌طورکلی، توسعه انواع‌ هوش ‌مصنوعی در کشور بدون ارتقای زیرساخت‌های ارتباطی ممکن نیست. در این میان، توسعه‌ هوش ‌مصنوعی عمومی نیاز به توسعه زیرساخت‌های پردازشی ازجمله ایجاد سرورها با توان محاسباتی بالا، سیستم‌های توانمند ذخیره‌سازی داده، واحدهای پردازش مرکزی و واحدهای پردازش گرافیکی قدرتمند برای اجرای‌‌ مدل‌های یادگیری ماشینی است. این زیرساخت‌ها، امکان پردازش سریع و دقیق داده‌ها و ایجاد‌‌ مدل‌های پیچیده را فراهم می‌کنند. در این راستا، کشور نیازمند شبکه‌هایی پرسرعت و پایدار‌‌ مبتنی‌بر محاسبات توزیع‌شده و ابر است تا امکان ارتباط و انتقال داده‌ها بین‌ هوش ‌مصنوعی و انسان را فراهم کند. این ارتباطات بسیار حیاتی هستند؛ زیرا امکان تبادل داده و اطلاعات بین سیستم‌ها و افراد را فراهم می‌کنند. پژوهش‌های مرتبط با کاربردهای‌ هوش ‌مصنوعی در علوم مختلف و کاربردهای علوم مختلف در‌ هوش ‌مصنوعی (به‌ویژه شبکه‌های عصبی و الگوریتم‌های کوانتومی) می‌توانند در تحقق بسترهای پایدار و ایمن فنی برای توسعه‌ هوش ‌مصنوعی تأثیر‌ قابل‌توجهی داشته ‌باشند.

ازجمله‌مهم‌ترین چالشهای حوزه کسب‌وکار و ابعاد اجتماعی مواجهه با این فناوری نیز مواردی‌ مانند‌ عدم ظرفیت تجهیزاتی سازمان‌ها برای راه‌اندازی این‌‌ مدل‌های بزرگ، مقاومت سیستم‌های قدیمی در برابر فناوری‌های جدید، توجیه سرمایه‌گذاری در‌ هوش ‌مصنوعی و راهکارهای کاهش هزینه‌ها، عواقب حقوقی یا اخلاقی در تعدیل یا تغییر شکل بخشی از نیروی کار کسب‌وکارها و چالش‌های مرتبط با نحوه مدیریت کارکنان در استفاده از‌ هوش ‌مصنوعی است که در سامانه‌های به مراتب هوشمند و قدرتمند به‌واسطه هوش مصنوعی مولد جدی‌تر می‌شوند.‌ به‌لحاظ اجتماعی نیز مسائلی‌ مانند‌ تشخیص دقت و صحت بروندادهای‌ هوش ‌مصنوعی توسط کاربران، محافظت از داده‌های شخصی، امکان رواج تبعیض و سوگیری‌های اجتماعی و سایر مخاطرات اخلاقی وجود دارد. لذا محورهای زیر می‌تواند در گام‌های اول به‌عنوان اقدامات کلیدی و زیرساختی دنبال شود:

 

  • بهبود سرمایه انسانی و ظرفیت نوآوری در کسب‌وکارها بهکمک آموزش، حمایت و نگهداشت نیروهای متخصص در کنار تربیت نیروی کار ماهر بهعنوان یک منبع کلیدی

یکی از سرمایه‌های کلیدی برای تقویت زیرساخت‌های فناورانه و دانشی پایدار، آموزش، حمایت و نگهداشت نیروهای متخصص‌ هوش ‌مصنوعی است. علاوه‌بر این کسب‌و‌کارها نیز با افزایش آمادگی سازمانی پذیرش‌ هوش ‌مصنوعی ازجمله آموزش و مهارت‌افزایی، هدایت نیروی کار به‌سمت مشاغل جدید حاصل از‌ هوش ‌مصنوعی به‌جای تعدیل و راهکارهای نوآورانه کاهش هزینه‌ها می‌توانند مقاومت در برابر پذیرش فناوری را کاهش دهند.

  • افزایش سواد دیجیتالی برای استفاده ایمن از هوش ‌مصنوعی عمومی بهعنوان یک ضمانت در توسعه هوش ‌مصنوعی پایدار و مسئول

هرچند‌ هوش ‌مصنوعی مولد به‌خودی خود واجد جذابیت‌های ویژه‌ای برای استفاده عمومی است، استفاده ایمن کاربران از این نوع هوش مصنوعی و حفاظت از اقشار حساس‌ مانند‌ کودکان و نوجوانان، افراد مسن و افراد کم‌سواد در برابر ناآگاهی از تبعات آتی ارائه اطلاعات و داده‌های خودشان مستلزم افزایش سواد دیجیتالی با به‌کارگیری ابزارهایی ازجمله رسانه، آموزش‌وپرورش، نشست‌ها و کارگاه‌های آموزشی به‌منظور آموزش سازوکارهای استفاده ایمن و جامع (با رعایت حقوق ذی‌نفعان و مصالح عمومی) است. در این راستا، حمایت از پژوهش‌های مرتبط با تأثیرات متقابل‌ هوش ‌مصنوعی و جامعه، اخلاق، فلسفه و حکمت و ارائه پاسخ‌های‌‌ مبتنی‌بر بنیان‌های ارزشی ایرانی و اسلامی نیز باید به‌اندازه پژوهش‌های فناورانه در مسیر توسعه‌ هوش ‌مصنوعی عمومی و حتی ابرهوش مصنوعی نیز مورد توجه قرار گیرد.

 

  1. Hinton, G.E, Osindero, S.& Whye The, Y. (2006). "A Fast-Learning Algorithm for Deep Belief Nets", Retrieved from https://www.cs.toronto.edu/~hinton/absps/ncfast.pdf
  2. علینقیان، اشکان و مصطفی، صفدری رنجبر و مهدی، محمدی. (1400)، اهداف و ابزارهای سیاستی توسعه هوش مصنوعی؛ جستاری در برنامه‌های سیاستی کشورهای منتخب. رهیافت. 31(3).
  3. اکبری، علیرضا و رضا، طهماسبی. (1402)، شناسایی کاربردها و الزامات هوش مصنوعی در فرایند جذب و استخدام. مدیریت فرهنگ سازمانی (فرهنگ مدیریت). 21(1).
  4. محمودی، سیدمحمد و محمد، جعفری و مهسا، پیشدار. (1403)، کاربردها و الزامات بکارگیری هوش مصنوعی در محصولات نوین خودرویی. مطالعات مدیریت کسب‌وکار هوشمند. 12(47).
  5. صفری، احرام و کریم، صفری. (1401). شناسایی و اولویت‌بندی چالش‌های توسعه هوش مصنوعی در ایران‌‌ مبتنی‌ بر تحلیل مضمون و نگاشت ادراکی فازی، نشریه مدیریت اطلاعات. 8(1).
  6. مهربان، محمدمهدی و عطیه، یوسفی و ایمان، اکبری و سهیلا، خردمندنیا. (1402)، نگاشت نهادی و تقسیم کار ملی در حوزه توسعه هوش مصنوعی و حکمرانی داده‌محور. ماهنامه گزارش‌های کارشناسی مرکز پژوهش‌های مجلس شورای اسلامی. 31(9).
  7. اکبری، ایمان‌ و عطیه، یوسفی و محمدمهدی، مهربان هلان. (1402)، بررسی لایحه برنامه هفتم توسعه (88): توسعه پایدار هوش مصنوعی در کشور. ماهنامه گزارش‌های کارشناسی مرکز پژوهش‌های مجلس شورای اسلامی 31(8).
  8. عبد خدایی، زهره و نسیم، توحیدی و نرگس، کریمی واقف و محمد، براتی جوآبادی. (1400)، هوش سفید از اخلاق ماشینی تا ماشین اخلاقی، مؤسسه مطالعات فرهنگی و اجتماعی وزارت علوم، تحقیقات و فناوری، تهران. ایران
  9. [Lawton G. (2023). "What is generative AI? Everything you need to know", Retrieved from https://www.techtarget.com/searchenterpriseai/definition/generative-AI
  10. Stefan Feuerriegel ,S., Hartmann, J., Janiesch. Ch. and Zschech,P. (2023)."Generative AI." Bus Inf Syst Eng. https://doi.org/10.1007/s12599-023-00834-7
  11. Techvify.(Oct. 20th, 2023). "Bing chat vs ChatGPT vs Google Bard which one suits you best? ", Retrieved from https://techvify-software.com/bing-chat-vs-chatgpt-vs-google-bard/
  12. "How do you overcome the data and computational challenges of generative AI? ", Retrieved from https://www.linkedin.com/advice/1/how-do-you-overcome-data-computational-challenges
  13. Barney, N. & Schmelzer, R. (July 28th, 2023). "6 ways to reduce different types of bias in machine learning", Retrieved from https://www.techtarget.com/searchenterpriseai/feature/6-ways-to-reduce-different-types-of-bias-in-machine-learning
  14. Betzalel, E., Penso, C. Navon, A. & Fetaya, E. (June.22th, 2022)."A study on the Evaluation of Generative Models", Retrieved from https://arxiv.org/abs/2206.10935
  15. Hinson, S. (2023). "Risks if Generative AI", Retrieved from 1. https://research.aimultiple.com/risks-of-generative-ai/
  16. Zighra,.(Nov.3th, 2023)."Explainable AI: The Key to Unlocking Generative AI's Potential", https://www.linkedin.com/pulse/explainable-ai-key-unlocking-generative-ais-potential-zighra-t2lre
  17. Roziere, B.; Ghering, J. Gloeckle, F. et al. (Aug. 25th, 2023). "Code Liama: Open Foundation Models for Code", Retrieved from https://arxiv.org/pdf/2308.12950.pdf
  18. Pratt, M.K. (Oct. 20th, 2023). "Generative AI's Sustainability Problems Explained", Retrieved from https://www.techtarget.com/sustainability/feature/Generative-AIs-sustainability-problems-explained.
  19. Moore, J. (Aprill 27th, 2023). "7 Generative AI Challenges that Businesses should consider", Retrieved from https://www.techtarget.com/searchenterpriseai/tip/Generative-AI-challenges-that-businesses-should-consider.
  20. Righter, G. (2023). "Object Storage vs. Block Storage: What's the Difference? ", Retrieved from https://cloudian.com/guides/data-protection/data-protection-and-privacy-7-ways-to-protect-user-data/
  21. Lamberti, A. (Dec.4th,2023). " Leveraging safe synthetic data to overcome scarcity in AI& LLM projects", Retrieved from https://syntheticus.ai/blog/leveraging-safe-synthetic-data-to-overcome-scarcity-in-ai-llm-projects
  22. "How do you overcome the data and computational challenges of generative AI? ", Retrieved from https://www.linkedin.com/advice/1/how-do-you-overcome-data-computational-challenges
  23. European Parliament News (2024), Artificial Intelligence Act: MEPs adopt landmark law. Available at: https://www.europarl.europa.eu/news/en/press-room/20240308IPR19015/artificial-intelligence-act-meps-adopt-landmark-law
  24. جعفری، زهرا و محمد، ملائی و سهیلا، خردمندنیا و ابوالقاسم، رجبی. (1403). ارائه تصویری از توسعه و به‌کارگیری‌ هوش ‌مصنوعی در جهان و ایران براساس برخی شاخص‌های اصلی بین‌المللی،مرکز پژوهش‌های مجلس شورای اسلامی. در حال انتشار.
  25. UN (2023). High-Level Advisory Body on Artificial Intelligence, Availble at: https://www.un.org/techenvoy/ai-advisory-body
  1. Thomas, M. (March 3th, 2023). "The Future of AI: How Artificial Intelligence will Change the World", Retrieved from https://builtin.com/artificial-intelligence/artificial-intelligence-future