کد خبر 230698
۱۹ آذر ۱۴۰۲ - ۰۱:۳۰

گزارش حیات از تصویب قانونی برای کنترل بزرگترین چالش بشر معاصر؛

هوش مصنوعی؛ چاقوی دولبه ای که هرروز بیشتر از آن می‌ترسیم

هوش مصنوعی؛ چاقوی دولبه ای که هرروز بیشتر از آن می‌ترسیم

مذاکره کنندگان اتحادیه اروپا روز گذشته به توافقی بر سر اولین قانون جامع هوش مصنوعی جهان دست یافتند که راه را برای نظارت قانونی بر فناوری هوش مصنوعی که زندگی روزمره را متحول، و هشدارهایی را درباره خطرات وجودی برای بشریت ایجاد کرده است، هموار کند.

به گزارش خبرنگار بین الملل حیات، اتحادیه اروپا به عنوان بخشی از استراتژی دیجیتال خود می‌خواهد هوش مصنوعی (AI) را تنظیم کند تا شرایط بهتری را برای توسعه و استفاده از این فناوری نوآورانه تضمین کند. هوش مصنوعی می تواند مزایای زیادی مانند مراقبت های بهداشتی بهتر، حمل و نقل ایمن تر و تمیزتر، تولید کارآمدتر و انرژی ارزان تر و پایدارتر ایجاد کند. اما در عین حال می‌تواند بستر مناسبی برای سواستفاده های اقتصادی، سیاسی وحتی امنیتی داشته باشد و حقوق اساسی و اولیه شهروندان را نقض کند.

در آوریل ۲۰۲۱، کمیسیون اروپا اولین چارچوب قانونی اتحادیه اروپا را برای هوش مصنوعی پیشنهاد کرد. این سیستم می گوید که سیستم های هوش مصنوعی که می توانند در برنامه های مختلف استفاده شوند، با توجه به خطراتی که برای کاربران ایجاد می کنند، تجزیه و تحلیل و طبقه بندی می‌شوند. و با توجه به اینکه در سطوح بالا یا پاین ریسک پذیری دسته‌بندی شده باشند، مشمول مقررات کمتر یا بیشتر خواهند بود. این اولین قانون جامع جهان در زمینه هوش مصنوعی است که بر فعالیت شرکت‌های فعال در این حوزه مقررات اعمال می‌کند و مورد توافق مجموعه‌ای از دولت‌ها نیز قرار گرفته است. این قانون همچنان باید به طور رسمی توسط کشورهای عضو و پارلمان تصویب شود، اما توافق سیاسی روز جمعه به عنوان برطرف کننده آخرین موانع جدی این تصویب تلقی شد.

کشورهای عضو اتحادیه اروپا و قانونگذاران روز جمعه، ۸ دسامبر، پس از ۳۶ ساعت مذاکره، به توافقی در مورد چگونگی پیش‌نویس قوانین «تاریخی» تنظیم‌کننده مدل‌های هوش مصنوعی مانند ChatGPT دست یافتند. در نشستی در بروکسل، مذاکره‌کنندگان محدودیت‌هایی را در مورد نحوه استفاده از هوش مصنوعی در اروپا تعیین کردند، که به گفته آنها به نوآوری در این بخش آسیب نمی‌رساند و به چشم‌انداز آینده شرکت‌های پیشرو هوش مصنوعی اروپا نیز آسیبی نمی‌زند.

تیری برتون، کمیسر بازار داخلی اتحادیه اروپا گفت: «با توافق سیاسی در مورد قانون هوش مصنوعی که امروز امضا شد، اتحادیه اروپا اولین قاره ای است که قوانین روشنی را برای استفاده از هوش مصنوعی تعیین می کند.» وی افزود: «قانون هوش مصنوعی بسیار بیشتر از یک کتاب قوانین است، این یک سکوی راه‌اندازی برای استارتاپ‌ها و محققان اتحادیه اروپا است تا رقابت جهانی برای دستیابی به هوش مصنوعی قابل اعتمادتر را رهبری کنند.»

اورسولا فون درلاین، رئیس اتحادیه اروپا در یک پست رسانه اجتماعی با استقبال از این قرارداد گفت: «قانون هوش مصنوعی یک اولین جهانی است. یک چارچوب قانونی منحصر به فرد برای توسعه هوش مصنوعی که می توانید به آن اعتماد کنید.»

دراگوش تودوراچه، نماینده رومانیایی پارلمان اروپا که نبرد چهار ساله پارلمان اروپا برای تنظیم مقررات هوش مصنوعی را رهبری کرده است، در یک کنفرانس مطبوعاتی که بعد از نیمه شب گذشته در بروکسل برگزار شد، به خبرنگاران گفت: «ما اولین کسی در جهان هستیم که مقررات واقعی را برای #هوش مصنوعی، و برای دنیای دیجیتال آینده که توسط هوش مصنوعی هدایت می شود، وضع کرده ایم و توسعه و تکامل این فناوری را در جهتی انسان محور هدایت می کنیم. ما هرگز به دنبال این نبودیم که ابزارهایی را که آنها [پلیس] برای مبارزه با جرم و جنایت نیاز دارند، ابزارهایی که برای مبارزه با کلاهبرداری نیاز دارند، ابزارهایی که برای تامین زندگی امن شهروندان نیاز دارند، از اجرای قانون محروم کنیم. چیزی که ما می‌خواستیم و اکنون به آن دست یافتیم، اعمال ممنوعیت‌هایی بر آن دسته از فناوری هوش مصنوعی است که از پیش تعیین می‌کند که چه کسی ممکن است مرتکب جرم شود.»

وی همچنین پیش ازاین گفته بود که اتحادیه اروپا مصمم است اشتباهات گذشته را مرتکب نشود، زمانی که غول های فناوری مانند فیس بوک اجازه یافتند تا به شرکت های چند میلیارد دلاری تبدیل شوند و هیچ تعهدی برای تنظیم محتوای پلتفرم‌های خود از جمله دخالت در انتخابات، رابطه جنسی با کودکان، سوء استفاده از اطلاعات و سخنان نفرت‌انگیز نداشتند.

مقررات این قانون دقیقا شامل چه مواردی است

قوانین جدید بسته به سطح ریسک هوش مصنوعی، تعهداتی را برای ارائه دهندگان و کاربران ایجاد می کند. در حالی که بسیاری از سیستم های هوش مصنوعی که کمترین خطر را دارند، طبق این قانون  صرفا تحت ارزیابی دائم  قرار گیرند. بر اساس این قانون، از سال ۲۰۲۵ که این قانون لازم‌اجرا خواهد شد تمام سرویس‌های ارائه دهنده خدمات مبتنی بر هوش مصنوعی در حوزه صلاحیت قضایی اتحادیه اروپا بر اساس دسته‌ بندی زیر طبقه‌بندی شده و مورد ارزیابی قرار می‌گیرند. سرویس‌هایی که خطرپذیری بیشتری داشته باشند مشمول مقررات بیشتر و سخت‌گیرانه تری قرار می‌گیرند. قوانین سطح مقررات همچنان تعهدات عمده ای را بر روی سرویس های هوش مصنوعی قرار می دهد، از جمله قوانین اساسی در مورد افشای داده هایی که برای آموزش هوش مصنوعی  برای انجام هر کاری از نوشتن مقاله در روزنامه تا تشخیص سرطان استفاده می کند.

ریسک غیر قابل قبول

سیستم‌های هوش مصنوعی که ذیل این عنوان قرار بگیرند سیستم‌هایی هستند که تهدیدی برای مردم محسوب می‌شوند و ممنوع خواهند شد. آنها عبارتند از:

سیستم‌هایی که به دستکاری رفتاری شناختی افراد یا گروه‌های آسیب‌پذیر خاص مبادرت می‌ورزند؛ به عنوان مثال اسباب‌بازی‌های فعال با صدا که رفتار خطرناک را در کودکان تشویق می‌کنند.

سیستم‌هایی که نمره گذاری اجتماعی انجام می‌دهند؛ طبقه بندی افراد بر اساس رفتار، وضعیت اجتماعی-اقتصادی یا ویژگی های شخصی

سیستم های شناسایی بیومتریک بلادرنگ و از راه دور، مانند فناوری‌های تشخیص چهره در خیابان.

البته برخی استثناها در این مورد ممکن است مجاز باشند: برای مثال، سیستم‌های شناسایی بیومتریک از راه دور «پست» که شناسایی در آن‌ها پس از تأخیری قابل‌توجه انجام می‌شود، مجاز به تعقیب جرایم جدی هستند، اما فقط پس از تأیید دادگاه.

منابع می گویند تنها یک مدل، GPT۴، وجود دارد که در این تعریف جدید قرار می گیرد.

ریسک بالا

سیستم‌های هوش مصنوعی که بر ایمنی شهروندان یا حقوق اساسی آن‌ها تأثیر منفی می‌گذارند پرخطر تلقی می‌شوند و به دو دسته تقسیم می‌شوند:

  1. سیستم های هوش مصنوعی که در محصولاتی که تحت قوانین ایمنی محصول اتحادیه اروپا قرار دارند استفاده می شود. این شامل اسباب بازی ها، حمل و نقل هوایی، اتومبیل، تجهیزات پزشکی و آسانسور است.
  2.  سیستم های هوش مصنوعی در هشت حوزه خاص قرار می گیرند که باید در پایگاه داده اتحادیه اروپا ثبت شوند. این هشت حوزه خاص عبارتند از: شناسایی بیومتریک و طبقه بندی اشخاص حقیقی، مدیریت و بهره برداری از زیرساخت های حیاتی، آموزش و پرورش و آموزش حرفه ای، اشتغال و مدیریت کارگر و دسترسی به خوداشتغالی، دسترسی و بهره مندی از خدمات خصوصی ضروری و خدمات و مزایای عمومی، اجرای قانون، مدیریت مهاجرت و پناهندگی و کنترل مرز، کمک در تفسیر و اجرای قانون.

تمام سیستم‌های هوش مصنوعی پرخطر قبل از عرضه به بازار و همچنین در طول چرخه عمرشان تحت ارزیابی دائمی ناظران قرار خواهند گرفت.

سیستم‌های هوش مصنوعی مولد

سرویس‌های هوش مصنوعی مولد، مانند ChatGPT، باید با الزامات شفافیت مطابقت داشته باشند، باید حتما سازوکاری برای افشای اینکه محتوای تولیدی آن‌ها توسط هوش مصنوعی تولید شده است داشته باشند، این سرویس‌ها می‌بایست به طراحی مدلی برای جلوگیری از تولید محتوای غیرقانونی مبادرت ورزند و موظف به انتشار خلاصه داده‌های دارای حق چاپ مورد استفاده برای استفاده‌های آموزشی هستند.

 ریسک محدود

سیستم‌های هوش مصنوعی با ریسک محدود باید با حداقل الزامات شفافیت مطابقت داشته باشند که به کاربران اجازه می‌دهد تصمیمات آگاهانه بگیرند. پس از تعامل با برنامه ها، کاربر می تواند تصمیم بگیرد که آیا می خواهد به استفاده از آن ادامه دهد یا خیر. کاربران باید در هنگام تعامل با هوش مصنوعی آگاه شوند. این شامل سیستم‌های هوش مصنوعی مثل دیپ‌‍فیک که محتوای تصویر، صوتی یا ویدیویی را تولید یا دستکاری می‌کنند می‌شود.

اتحادیه اروپا می‌تواند از طریق نهاد جدیدی به نام «دفتر هوش مصنوعی اتحادیه اروپا» که وابسته به کمیسیون اروپا است، بر افرادی را که این قانون را نقض می‌کنند، نظارت نموده و آن‌ها را جریمه یا تحریم کند. این دفتر قدرت جریمه ای به ارزش هفت درصد از گردش مالی هر شرکت یا ۳۵ میلیون یورو را دارد، هر کدام که بزرگتر باشد.

چالش‌ها و فرصت‌های پیش‌رو

یکی از موانع اصلی در طول مذاکرات نحوه تنظیم سیستم های هوش مصنوعی همه منظوره مانند ChatGPT بود. برخی از کشورهای عضو نگران بودند که قوانین بیش از حد به رشد شرکت‌های بومی اروپایی مانند Aleph Alpha آلمان یا Mistral AI فرانسه آسیب برساند. ژان نوئل بارو، وزیر ارتباطات دیجیتال و مخابرات فرانسه گفت: «فرانسه به دقت مصالحه مورد توافق را تجزیه و تحلیل خواهد کرد و اطمینان حاصل می کند که ظرفیت اروپا برای توسعه فناوری‌های هوش مصنوعی بومی‌اش تضعیف نشود.»

قانونگذاران اروپایی خواهان ممنوعیت کامل استفاده عمومی از اسکن چهره و سایر سیستم‌های "شناسایی بیومتریک از راه دور" به دلیل نگرانی‌های مربوط به حریم خصوصی هستند. اما دولت های کشورهای عضو موفق به مذاکره در مورد معافیت‌ها شدند تا مجریان قانون بتوانند از آنها برای مقابله با جنایات جدی مانند بهره کشی جنسی از کودکان یا حملات تروریستی استفاده کنند.

گروه‌های حقوقی گفتند که آنها نگران معافیت‌ها و سایر نقاط ضعف بزرگ در قانون هوش مصنوعی هستند، از جمله عدم حفاظت از سیستم‌های هوش مصنوعی مورد استفاده در مهاجرت و کنترل مرزها. همچنین بسیاری معتقدند که این قانون به اندازه کافی سفت و سخت نیست و امکانات بسیاری را برای توسعه‌دهندگان وب به منظور انصراف از طبقه‌بندی سیستم‌های خود به عنوان «پرخطر» باقی می‌گذارد.

دانیل لوفر، تحلیلگر ارشد سیاست در گروه حقوق دیجیتال Access Now، گفت: «پیروزی‌ها در این مذاکرات نهایی هر چه باشد، واقعیت این است که نقص‌های بزرگی در متن نهایی باقی خواهد ماند.»

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha