هوش مصنوعی چه خطری دارد؟
یکی از اهداف مخالفان به کارگیری از هوش مصنوعی، حفاظت از مردم در برابر هرگونه تهدید هوش مصنوعی علیه سلامت و امنیت و همچنین محافظت از حقوق و ارزشهای انسانی در جوامع مختلف است.
به گزارش گروه دانش و فناوری خبرگزاری آنا، یک نهاد نظارتی در ایتالیا ممنوعیت فوری دسترسی به ربات چتِ محبوبِ «چتجیپیتی» را که مبتنی بر هوش مصنوعی و ساخته شرکت آمریکایی «اُپن اِی.آی. / OpenAI» است، به دلیل ادعای نقض حریم خصوصی صادر کرد. ایتالیا نخستین کشور غربی بود که استفاده از یک ابزار هوش مصنوعی را ممنوع اعلام کرد.
اما به نظر میرسد استفاده همهگیر از چنین ابزارهای هوش مصنوعی باعث شده تا قانونگذاران در سرتاسر دنیا به فکر تصویب چارچوب و قوانین برای جلوگیری از سوء استفاده از آنها بیفتند.
یکی از اهداف اصلی این موضوع حفاظت از مردم در برابر هرگونه تهدید هوش مصنوعی علیه سلامت و امنیت و همچنین محافظت از حقوق و ارزشها است.
این یعنی استفاده از برخی کاربردهای هوش مصنوعی مثل سیستمهای «امتیازدهی اجتماعی» که به قضاوت در مورد مردم بر حسب رفتارشان میپردازد با یک «نه قطعی» مواجه میشود.
همچنین، هوش مصنوعیهایی که از افراد و به خصوص کودکان سوء استفاده میکنند و یا به صورت ناخودآگاه بر افراد اثر میگذارند و صدماتی را بر آنها وارد میکنند. مثلا عروسکهای سخنگویی که کودکان را به انجام رفتارهای خطرناک ترغیب میکنند، نیز ممنوع خواهند شد.
همچنین ممنوعیت گستردهای را برای استفاده از سیستمهای شناسایی چهره نیز مورد نقد و بررسی است هرچند استثنائاتی برای عملیاتی چون شناسایی یک تهدید تروریستی خاص در نظر گرفته شود اما فناوری مذکور با تصویربرداری از چهره رهگذران، از هوش مصنوعی برای تطبیق چهره آنها با پایگاه داده استفاده میکند و این خود محل برای بروز نگرانی برای مردم عادی خواهد شد.
به هر ترتیب هدف اصلی جلوگیری از به وجود آمدن جامعهای است که توسط هوش مصنوعی کنترل میشود. به نظر این فناوریها بجای این که به مصارف خوب برسند، میتوانند برای اهداف بدی نیز مورد استفاده قرار گیرند. ما خطر استفاده از آنها را بسیار بالا ارزیابی میکنیم.
گفتنی است، اکثر سیستمهای هوش مصنوعی مثل بازیهای ویدیویی و فیلترکنندههای هرزنامهها جزء دستهبندی کمخطر و بیخطر قرار میگیرند.