دستورالعمل اتحادیه اروپا برای توسعه اخلاقی هوش مصنوعی منتشر شد

اتحادیه اروپا به منظور تشویق کشورهای عضو به توسعه اخلاق مدارانه هوش مصنوعی یک دستورالعمل هفت بندی را منتشر نموده است.

دستورالعمل اتحادیه اروپا برای توسعه اخلاقی هوش مصنوعی منتشر شد

برای سفر به تور اروپا با بهترین کارشناسان مشورت کرده و بهترین برنامه سفر را انتخاب کنید.

به گزارش ایسنا و به نقل از انگجت، توسعه هیچ یک از فناوری های امروزی به اندازه توسعه هوش مصنوعی، نگرانی های اخلاقی و حتی ترس را برنمی انگیزد و فقط شهروندان عادی نیستند که نگران این مسئله هستند، بلکه شرکت های فیسبوک، گوگل و دانشگاه استنفورد با تأسیس مراکز تحقیقاتی اخلاق هوش مصنوعی روی آن سرمایه گذاری نموده اند.

اواخر سال گذشته کانادا و فرانسه برای ایجاد یک پیمان بین المللی برای بحث در خصوص مسئولیت هوش مصنوعی همکاری کردند. امروز نیز کمیسیون اروپا دستورالعمل خود را که خواهان هوش مصنوعی قابل اعتماد است، منتشر کرد.

با توجه به این دستورالعمل اتحادیه اروپا، هوش مصنوعی باید به اصول پایه اخلاقی و احترام به استقلال بشر، پیشگیری از آسیب، عدالت و پاسخگویی پایبند باشد. این دستورالعمل شامل هفت الزام ذکر شده در زیر می گردد و توجه ویژه ای به محافظت از قشرهای آسیب پذیر مانند بچه ها و افراد معلول دارد. همچنین می گوید که شهروندان باید کنترل کاملی روی اطلاعات خود داشته باشند.

کمیسیون اروپا توصیه می نماید که در هنگام توسعه یا استقرار هوش مصنوعی از یک فهرست ارزیابی استفاده گردد، اما این دستورالعمل به معنای دخالت در سیاست یا مقررات شرکت ها نیست. در عوض یک چارچوب کلی ارائه می دهد.

کمیسیون اروپا در تابستان پیش رو کوشش خواهد نمود تا مناطقی را شناسایی کند که در آن هدایت های اضافی ممکن است لازم باشد و چگونگی به کارگیری این دستورالعمل و توصیه های خود را بهتر می نماید.

در اوایل سال 2020 نیز گروهی از متخصصان بازخورد این مرحله آزمایشی را آنالیز خواهند کرد. همانطور که پتانسیل ساختن چیزهایی مانند سلاح های اتوماتیک و الگوریتم های فراوری اخبار جعلی توسعه می یابند، دولت ها باید بیشتر در زمینه نگرانی های اخلاقی موضع گیری نمایند.

خلاصه ای از دستورالعمل اتحادیه اروپا در زیر آمده است:

-سازمان های انسانی و نظارت: سیستم های هوش مصنوعی باید با حمایت از سازمان های انسانی و حقوق بنیادین آنها برابری را رعایت نمایند و موجب کاهش، محدود کردن یا نادیده دریافت استقلال بشر نشوند.

-استحکام و ایمنی: یک هوش مصنوعی قابل اطمینان به الگوریتم های امن، قابل اعتماد و قوی برای مقابله با اشتباهات و یا عدم انطباق در تمام مراحل چرخه حیات سیستم های هوش مصنوعی احتیاج دارد.

-حفظ حریم خصوصی و کنترل داده ها: شهروندان باید کنترل کامل بر داده های خود داشته باشند تا داده های مربوط به آنها به منظور آسیب رساندن و یا تبعیض علیه آنها مورد استفاده قرار نگیرد.

-شفافیت: از ردیابی سیستم های هوش مصنوعی باید اطمینان حاصل گردد.

-تنوع، عدم تبعیض و انصاف: سیستم های هوش مصنوعی باید طیف وسیعی از توانایی ها، مهارت ها و الزامات انسانی را در نظر بگیرند و دسترسی آزاد را تضمین نمایند.

-رفاه اجتماعی و محیط زیست: سیستم های هوش مصنوعی باید برای تقویت تغییرات مثبت اجتماعی و افزایش پایداری و مسئولیت زیست محیطی مورد استفاده قرار گیرند.

-مسئولیت پذیری: باید مکانیزم هایی برای اطمینان از پاسخگویی و مسئولیت پذیری سیستم های هوش مصنوعی و نتایج آنها ایجاد گردد.

منبع: انتخاب
انتشار: بروزرسانی: 12 آذر 1398 شناسه مطلب: 666

به "دستورالعمل اتحادیه اروپا برای توسعه اخلاقی هوش مصنوعی منتشر شد" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "دستورالعمل اتحادیه اروپا برای توسعه اخلاقی هوش مصنوعی منتشر شد"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید