به گزارش خبرنگار بین الملل حیات، اتحادیه اروپا به عنوان بخشی از استراتژی دیجیتال خود میخواهد هوش مصنوعی (AI) را تنظیم کند تا شرایط بهتری را برای توسعه و استفاده از این فناوری نوآورانه تضمین کند. هوش مصنوعی می تواند مزایای زیادی مانند مراقبت های بهداشتی بهتر، حمل و نقل ایمن تر و تمیزتر، تولید کارآمدتر و انرژی ارزان تر و پایدارتر ایجاد کند. اما در عین حال میتواند بستر مناسبی برای سواستفاده های اقتصادی، سیاسی وحتی امنیتی داشته باشد و حقوق اساسی و اولیه شهروندان را نقض کند.
در آوریل ۲۰۲۱، کمیسیون اروپا اولین چارچوب قانونی اتحادیه اروپا را برای هوش مصنوعی پیشنهاد کرد. این سیستم می گوید که سیستم های هوش مصنوعی که می توانند در برنامه های مختلف استفاده شوند، با توجه به خطراتی که برای کاربران ایجاد می کنند، تجزیه و تحلیل و طبقه بندی میشوند. و با توجه به اینکه در سطوح بالا یا پاین ریسک پذیری دستهبندی شده باشند، مشمول مقررات کمتر یا بیشتر خواهند بود. این اولین قانون جامع جهان در زمینه هوش مصنوعی است که بر فعالیت شرکتهای فعال در این حوزه مقررات اعمال میکند و مورد توافق مجموعهای از دولتها نیز قرار گرفته است. این قانون همچنان باید به طور رسمی توسط کشورهای عضو و پارلمان تصویب شود، اما توافق سیاسی روز جمعه به عنوان برطرف کننده آخرین موانع جدی این تصویب تلقی شد.
کشورهای عضو اتحادیه اروپا و قانونگذاران روز جمعه، ۸ دسامبر، پس از ۳۶ ساعت مذاکره، به توافقی در مورد چگونگی پیشنویس قوانین «تاریخی» تنظیمکننده مدلهای هوش مصنوعی مانند ChatGPT دست یافتند. در نشستی در بروکسل، مذاکرهکنندگان محدودیتهایی را در مورد نحوه استفاده از هوش مصنوعی در اروپا تعیین کردند، که به گفته آنها به نوآوری در این بخش آسیب نمیرساند و به چشمانداز آینده شرکتهای پیشرو هوش مصنوعی اروپا نیز آسیبی نمیزند.
تیری برتون، کمیسر بازار داخلی اتحادیه اروپا گفت: «با توافق سیاسی در مورد قانون هوش مصنوعی که امروز امضا شد، اتحادیه اروپا اولین قاره ای است که قوانین روشنی را برای استفاده از هوش مصنوعی تعیین می کند.» وی افزود: «قانون هوش مصنوعی بسیار بیشتر از یک کتاب قوانین است، این یک سکوی راهاندازی برای استارتاپها و محققان اتحادیه اروپا است تا رقابت جهانی برای دستیابی به هوش مصنوعی قابل اعتمادتر را رهبری کنند.»
اورسولا فون درلاین، رئیس اتحادیه اروپا در یک پست رسانه اجتماعی با استقبال از این قرارداد گفت: «قانون هوش مصنوعی یک اولین جهانی است. یک چارچوب قانونی منحصر به فرد برای توسعه هوش مصنوعی که می توانید به آن اعتماد کنید.»
دراگوش تودوراچه، نماینده رومانیایی پارلمان اروپا که نبرد چهار ساله پارلمان اروپا برای تنظیم مقررات هوش مصنوعی را رهبری کرده است، در یک کنفرانس مطبوعاتی که بعد از نیمه شب گذشته در بروکسل برگزار شد، به خبرنگاران گفت: «ما اولین کسی در جهان هستیم که مقررات واقعی را برای #هوش مصنوعی، و برای دنیای دیجیتال آینده که توسط هوش مصنوعی هدایت می شود، وضع کرده ایم و توسعه و تکامل این فناوری را در جهتی انسان محور هدایت می کنیم. ما هرگز به دنبال این نبودیم که ابزارهایی را که آنها [پلیس] برای مبارزه با جرم و جنایت نیاز دارند، ابزارهایی که برای مبارزه با کلاهبرداری نیاز دارند، ابزارهایی که برای تامین زندگی امن شهروندان نیاز دارند، از اجرای قانون محروم کنیم. چیزی که ما میخواستیم و اکنون به آن دست یافتیم، اعمال ممنوعیتهایی بر آن دسته از فناوری هوش مصنوعی است که از پیش تعیین میکند که چه کسی ممکن است مرتکب جرم شود.»
وی همچنین پیش ازاین گفته بود که اتحادیه اروپا مصمم است اشتباهات گذشته را مرتکب نشود، زمانی که غول های فناوری مانند فیس بوک اجازه یافتند تا به شرکت های چند میلیارد دلاری تبدیل شوند و هیچ تعهدی برای تنظیم محتوای پلتفرمهای خود از جمله دخالت در انتخابات، رابطه جنسی با کودکان، سوء استفاده از اطلاعات و سخنان نفرتانگیز نداشتند.
مقررات این قانون دقیقا شامل چه مواردی است
قوانین جدید بسته به سطح ریسک هوش مصنوعی، تعهداتی را برای ارائه دهندگان و کاربران ایجاد می کند. در حالی که بسیاری از سیستم های هوش مصنوعی که کمترین خطر را دارند، طبق این قانون صرفا تحت ارزیابی دائم قرار گیرند. بر اساس این قانون، از سال ۲۰۲۵ که این قانون لازماجرا خواهد شد تمام سرویسهای ارائه دهنده خدمات مبتنی بر هوش مصنوعی در حوزه صلاحیت قضایی اتحادیه اروپا بر اساس دسته بندی زیر طبقهبندی شده و مورد ارزیابی قرار میگیرند. سرویسهایی که خطرپذیری بیشتری داشته باشند مشمول مقررات بیشتر و سختگیرانه تری قرار میگیرند. قوانین سطح مقررات همچنان تعهدات عمده ای را بر روی سرویس های هوش مصنوعی قرار می دهد، از جمله قوانین اساسی در مورد افشای داده هایی که برای آموزش هوش مصنوعی برای انجام هر کاری از نوشتن مقاله در روزنامه تا تشخیص سرطان استفاده می کند.
ریسک غیر قابل قبول
سیستمهای هوش مصنوعی که ذیل این عنوان قرار بگیرند سیستمهایی هستند که تهدیدی برای مردم محسوب میشوند و ممنوع خواهند شد. آنها عبارتند از:
سیستمهایی که به دستکاری رفتاری شناختی افراد یا گروههای آسیبپذیر خاص مبادرت میورزند؛ به عنوان مثال اسباببازیهای فعال با صدا که رفتار خطرناک را در کودکان تشویق میکنند.
سیستمهایی که نمره گذاری اجتماعی انجام میدهند؛ طبقه بندی افراد بر اساس رفتار، وضعیت اجتماعی-اقتصادی یا ویژگی های شخصی
سیستم های شناسایی بیومتریک بلادرنگ و از راه دور، مانند فناوریهای تشخیص چهره در خیابان.
البته برخی استثناها در این مورد ممکن است مجاز باشند: برای مثال، سیستمهای شناسایی بیومتریک از راه دور «پست» که شناسایی در آنها پس از تأخیری قابلتوجه انجام میشود، مجاز به تعقیب جرایم جدی هستند، اما فقط پس از تأیید دادگاه.
منابع می گویند تنها یک مدل، GPT۴، وجود دارد که در این تعریف جدید قرار می گیرد.
ریسک بالا
سیستمهای هوش مصنوعی که بر ایمنی شهروندان یا حقوق اساسی آنها تأثیر منفی میگذارند پرخطر تلقی میشوند و به دو دسته تقسیم میشوند:
- سیستم های هوش مصنوعی که در محصولاتی که تحت قوانین ایمنی محصول اتحادیه اروپا قرار دارند استفاده می شود. این شامل اسباب بازی ها، حمل و نقل هوایی، اتومبیل، تجهیزات پزشکی و آسانسور است.
- سیستم های هوش مصنوعی در هشت حوزه خاص قرار می گیرند که باید در پایگاه داده اتحادیه اروپا ثبت شوند. این هشت حوزه خاص عبارتند از: شناسایی بیومتریک و طبقه بندی اشخاص حقیقی، مدیریت و بهره برداری از زیرساخت های حیاتی، آموزش و پرورش و آموزش حرفه ای، اشتغال و مدیریت کارگر و دسترسی به خوداشتغالی، دسترسی و بهره مندی از خدمات خصوصی ضروری و خدمات و مزایای عمومی، اجرای قانون، مدیریت مهاجرت و پناهندگی و کنترل مرز، کمک در تفسیر و اجرای قانون.
تمام سیستمهای هوش مصنوعی پرخطر قبل از عرضه به بازار و همچنین در طول چرخه عمرشان تحت ارزیابی دائمی ناظران قرار خواهند گرفت.
سیستمهای هوش مصنوعی مولد
سرویسهای هوش مصنوعی مولد، مانند ChatGPT، باید با الزامات شفافیت مطابقت داشته باشند، باید حتما سازوکاری برای افشای اینکه محتوای تولیدی آنها توسط هوش مصنوعی تولید شده است داشته باشند، این سرویسها میبایست به طراحی مدلی برای جلوگیری از تولید محتوای غیرقانونی مبادرت ورزند و موظف به انتشار خلاصه دادههای دارای حق چاپ مورد استفاده برای استفادههای آموزشی هستند.
ریسک محدود
سیستمهای هوش مصنوعی با ریسک محدود باید با حداقل الزامات شفافیت مطابقت داشته باشند که به کاربران اجازه میدهد تصمیمات آگاهانه بگیرند. پس از تعامل با برنامه ها، کاربر می تواند تصمیم بگیرد که آیا می خواهد به استفاده از آن ادامه دهد یا خیر. کاربران باید در هنگام تعامل با هوش مصنوعی آگاه شوند. این شامل سیستمهای هوش مصنوعی مثل دیپفیک که محتوای تصویر، صوتی یا ویدیویی را تولید یا دستکاری میکنند میشود.
اتحادیه اروپا میتواند از طریق نهاد جدیدی به نام «دفتر هوش مصنوعی اتحادیه اروپا» که وابسته به کمیسیون اروپا است، بر افرادی را که این قانون را نقض میکنند، نظارت نموده و آنها را جریمه یا تحریم کند. این دفتر قدرت جریمه ای به ارزش هفت درصد از گردش مالی هر شرکت یا ۳۵ میلیون یورو را دارد، هر کدام که بزرگتر باشد.
چالشها و فرصتهای پیشرو
یکی از موانع اصلی در طول مذاکرات نحوه تنظیم سیستم های هوش مصنوعی همه منظوره مانند ChatGPT بود. برخی از کشورهای عضو نگران بودند که قوانین بیش از حد به رشد شرکتهای بومی اروپایی مانند Aleph Alpha آلمان یا Mistral AI فرانسه آسیب برساند. ژان نوئل بارو، وزیر ارتباطات دیجیتال و مخابرات فرانسه گفت: «فرانسه به دقت مصالحه مورد توافق را تجزیه و تحلیل خواهد کرد و اطمینان حاصل می کند که ظرفیت اروپا برای توسعه فناوریهای هوش مصنوعی بومیاش تضعیف نشود.»
قانونگذاران اروپایی خواهان ممنوعیت کامل استفاده عمومی از اسکن چهره و سایر سیستمهای "شناسایی بیومتریک از راه دور" به دلیل نگرانیهای مربوط به حریم خصوصی هستند. اما دولت های کشورهای عضو موفق به مذاکره در مورد معافیتها شدند تا مجریان قانون بتوانند از آنها برای مقابله با جنایات جدی مانند بهره کشی جنسی از کودکان یا حملات تروریستی استفاده کنند.
گروههای حقوقی گفتند که آنها نگران معافیتها و سایر نقاط ضعف بزرگ در قانون هوش مصنوعی هستند، از جمله عدم حفاظت از سیستمهای هوش مصنوعی مورد استفاده در مهاجرت و کنترل مرزها. همچنین بسیاری معتقدند که این قانون به اندازه کافی سفت و سخت نیست و امکانات بسیاری را برای توسعهدهندگان وب به منظور انصراف از طبقهبندی سیستمهای خود به عنوان «پرخطر» باقی میگذارد.
دانیل لوفر، تحلیلگر ارشد سیاست در گروه حقوق دیجیتال Access Now، گفت: «پیروزیها در این مذاکرات نهایی هر چه باشد، واقعیت این است که نقصهای بزرگی در متن نهایی باقی خواهد ماند.»
نظر شما