به گزارش هوشمند نیوز اندیشکده بروکینگز در مقاله ای نوشت: در ۲۹ سپتامبر ۲۰۲۱، شورای تجارت و فناوری جدید ایالات متحده و اتحادیه اروپا (EU) اولین نشست خود را برگزار کردند. این رویداد در شهر صنعتی قدیمی پیتسبورگ، پنسیلوانیا، تحت رهبری معاون رئیس کمیسیون اروپا، مارگرت وستاگر، و آنتونی بلینکن، وزیر امور خارجه ایالات متحده، برگزار شد. پس از این نشست، ایالات متحده و اتحادیه اروپا مخالفت خود را با هوش مصنوعی (AI) اعلام کردند که به حقوق بشر و سیستم های ناقض حقوق ارجاعی مانند سیستم های امتیازدهی اجتماعی احترام نمی گذارد.[۱] در این جلسه، TTC تصریح کرد که «ایالات متحده و اتحادیه اروپا نگرانیهای قابل توجهی از این دارند که دولتهای مستبد در حال اجرای آزمایشی سیستمهای امتیازدهی اجتماعی با هدف اجرای کنترل اجتماعی در مقیاس هستند. این سیستمها آزادیهای اساسی و حاکمیت قانون را از جمله از طریق خاموش کردن سخنرانی، مجازات تجمعات مسالمتآمیز و سایر فعالیتهای بیانی، و تقویت سیستمهای نظارت خودسرانه یا غیرقانونی تهدید می کنند.
هدف ضمنی این انتقاد، سیستم «اعتبار اجتماعی» چین بود، یک سیستم کلان داده که از طیف گستردهای از ورودیهای داده برای ارزیابی امتیاز اعتبار اجتماعی افراد استفاده میکند، که مجوزهای اجتماعی را در جامعه تعیین میکند، مانند خرید بلیط هواپیما یا قطار. [۳] انتقاد TTC نشان میدهد که ایالات متحده و اتحادیه اروپا با دیدگاه چین درباره نحوه مدیریت استفاده از هوش مصنوعی و دادهها در جامعه توسط مقامات مخالفند.[۴] بنابراین TTC را می توان به عنوان گام های آغازین برای تشکیل یک اتحاد حول یک رویکرد حقوق بشر محور برای توسعه هوش مصنوعی در کشورهای دموکراتیک، که در تضاد با کشورهای مستبد مانند روسیه و چین است، در نظر گرفت. با این حال، این رویکردهای مختلف ممکن است منجر به جداسازی فناوری شود که به عنوان جداسازی استراتژیک ملی از فناوریهای بهم پیوسته مانند ۵G، سختافزار مانند تراشههای کامپیوتری و نرمافزارهایی مانند سیستمهای عامل مفهومسازی میشود.
از لحاظ تاریخی، ظهور وب جهانی فرصتی را برای جهان ایجاد کرد تا به عنوان یک اکوسیستم دیجیتال جهانی به هم متصل شود. با این حال، بی اعتمادی فزاینده بین کشورها باعث افزایش حاکمیت دیجیتالی شده است که به توانایی یک کشور برای کنترل سرنوشت دیجیتال خود اشاره دارد و ممکن است شامل کنترل کل زنجیره تامین هوش مصنوعی، از داده ها گرفته تا سخت افزار و نرم افزار باشد. پیامد گرایش به سمت حاکمیت دیجیتال بیشتر که سپس این روند وضعیت را بیشتر میکند ، افزایش ترس از قطع شدن قطعات دیجیتالی حیاتی مانند تراشههای کامپیوتری و عدم کنترل بر جریان بینالمللی دادههای شهروندان است. این پیشرفتها اشکال موجود اتصال متقابل را تهدید میکند و باعث میشود که بازارهای فناوری پیشرفته پاره پاره شود.
اتحادیه اروپا از بسیاری جهات پیشرو در مقررات داده و مدیریت هوش مصنوعی بوده است. مقررات عمومی حفاظت از داده های اتحادیه اروپا (GDPR) که در سال ۲۰۱۸ اجرایی شد، سابقه ای برای تنظیم داده ها ایجاد کرد. این امر در نحوه الهام بخشی این قانون از سایر اقدامات، به عنوان مثال، قانون حفظ حریم خصوصی مصرف کنندگان کالیفرنیا (CCPA) و قانون حفاظت از اطلاعات شخصی چین (PIPL) دیده می شود. قانون هوش مصنوعی اتحادیه اروپا (AIA)، که میتواند تا سال ۲۰۲۴ اجرایی شود، همچنین یک مقررات جدید و پیشگامانه مبتنی بر ریسک برای هوش مصنوعی است که همراه با قانون بازارهای دیجیتال (DMA) و قانون خدمات دیجیتال (DSA) ایجاد میکند. رویکردی جامع به این که چگونه مقامات به دنبال مدیریت استفاده از هوش مصنوعی و فناوری اطلاعات در جامعه هستند.
قانون هوش مصنوعی اتحادیه اروپا مجموعه ای افقی از قوانین را برای توسعه و استفاده از محصولات، خدمات و سیستم های مبتنی بر هوش مصنوعی در اتحادیه اروپا ایجاد می کند. این قانون بر اساس یک رویکرد مبتنی بر ریسک الگوبرداری شده است که از خطرات غیرقابل قبول (مانند امتیازدهی اعتبار اجتماعی و استفاده از فناوریهای تشخیص چهره برای نظارت بر زمان واقعی فضاهای عمومی)، به ریسک بالا (مانند سیستمهای هوش مصنوعی مورد استفاده در استخدام و اعتبار) حرکت میکند. برنامه های کاربردی)، با ریسک محدود (مانند چت بات) تا خطر کم یا بدون خطر (به عنوان مثال، بازی های ویدیویی با هوش مصنوعی یا فیلترهای هرزنامه). در حالی که سیستمهای هوش مصنوعی که خطرات غیرقابل قبولی دارند کاملاً ممنوع هستند، سیستمهای پرخطر مشمول ارزیابیهای انطباق، از جمله ممیزیهای مستقل و اشکال جدید نظارت و کنترل خواهند بود. سیستمهای با ریسک محدود مشمول تعهدات شفافیت هستند، مانند اطلاعاتی که کاربر در هنگام تعامل با یک ربات چت انجام میدهد. در مقابل، سیستمهای ریسک کم یا اصلاً تحت تأثیر قانون هوش مصنوعی قرار نگرفتهاند.
۳۱۱۳۱۱
ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : ۰