سوگیری عمدی در هوش مصنوعی چگونه به ما آسیب می رساند
اشتباهات هوش مصنوعی، دیگر اتفاقی نیستند. سوگیری عمدی در هوش مصنوعی، تعریفی جدید از تهدیدات حملات سایبری است که افکار عمومی را جهت میدهد.
موضوع تعصب ناخودآگاه در هوش مصنوعی، اغلب بر الگوریتمهایی تمرکز دارد که بهصورت ناخواسته باعث آسیب به بخشهایی از جامعه میشوند؛ برای نمونه میتوان به تصورات اشتباهی اشاره کرد مبنی بر اینکه احتمال ارتکاب جرائم درمورد متهمان سیاهپوست بیشتر است. این مشکل از آنجا ناشی میشود که تکنولوژیهای تشخیص چهره عمدتاً با استفاده از تصاویر مردان سفیدپوست توسعه مییابند و در نتیجه الگوریتم در تشخیص چهرهی زنان یا افراد دارای پوست تیره، عملکرد بسیار ضعیفی را از خود نشان میدهد.
اما مشکل میتواند بسیار عمیقتر از این موارد باشد. در حقیقت، جامعه باید مراقب انحراف دیگری نیز باشد؛ این احتمال وجود دارد که افراد شرور به دنبال حمله به سیستمهای هوش مصنوعی باشند؛ بهگونهای که تعصب و سوگیریهای عامدانه را بهصورت مخفیانه وارد سیستم یادگیری آنها کنند. این موضوع میتواند بهعنوان جنبهای نگرانکننده و تازه از حملات سایبری، کمپینهای دروغپراکنی یا تکثیر اخبار جعلی مطرح شود.
با توجه به مطالعات دولت آمریکا روی دادههای بزرگ و حریم خصوصی، الگوریتمهای مغرضانه میتوانند اموری نظیر پوششدهی تسهیلات تبعیضآمیز، استخدام و دیگر فعالیتهای تجاری نامشروع را آسانتر کنند. الگوریتمها را میتوان بهمنظور بهرهبرداری از عوامل بهظاهر بیضرر که در حقیقت تبعیضآمیز هستند، طراحی کرد. بهکارگیری تکنیکهای فعلی با استفاده از دادهها یا الگوریتم های مغرضانه، میتواند زمینه را برای پنهانسازی نیات پلید اشخاص و سازمانها هموار کند. دلالان اطلاعات تجاری، انواع اطلاعات نظیر جستجوهای آنلاین یا عادات خرید را جمعآوری و نگهداری میکنند که با کمک چنین ابزاری میتوان از آنها سوءاستفاده کرد.
اطلاعات مغرضانه همچنین میتواند بهعنوان طعمه نیز مورد استفاده واقع شود. شرکتها میتوانند شروع به انتشار دادههای مغرضانه کنند؛ به امید آنکه رقیبان آنها روزی از این اطلاعات برای آموزش الگوریتمهای هوش مصنوعی استفاده کنند و بدین ترتیب باعث کاهش کیفیت محصولات و نیز سلب اعتماد مصرفکننده از آنها شوند.
مقالههای مرتبط:
اینگونه حملات الگوریتمی همچنین میتواند برای پیشبرد اهداف ایدئولوژیکی بهراحتی مورد استفاده قرار گیرند. اگر گروههای کینهجوی سازمانهای هواداری سیاسی بخواهند مردم را بر اساس نژاد، جنسیت، مذهب یا سایر ویژگیها هدف قرار دهند یا حذف کنند، الگوریتمهای مغرضانه میتوانند به آنها توجیه لازم یا روشهای پیشرفتهتری را برای پیادهسازی مستقیم این اهداف ارائه دهند. اطلاعات مغرضانه همچنین میتوانند در تلاش برای نهادینهسازی تبعیضهای نژادی و همچنین محدودسازی حق رأی، مؤثر واقع شوند.
نهایتاً، در بحث تهدیدهای امنیت ملی (از سوی بازیگران خارجی) میتوان از حملات متعصبانه برای بیثبات کردن جوامع از طریق تضعیف مشروعیت دولت یا تشدید دودستگی مردم استفاده کرد. این روش در راستای همان تاکتیکهایی است که به دنبال بهرهبرداری از شکاف ایدئولوژیکی هستند؛ که در آن، گروهها با استفاده از ابزارهایی نظیر تولید پست در شبکههای اجتماعی و خریدن تبلیغات آنلاین به دنبال شعلهور کردن تنشهای نژادی در جوامع هدف هستند.
نفوذ سوگیریهای عمدی در الگوریتمهای تصمیمگیری میتواند بسیار ساده و درعینحال مؤثر باشد. رسیدن به این هدف ممکن است با تکرار یا تشدید آن دسته از عواملی میسر شود که خود دارای نوعی جهتگیری هستند. بسیاری از الگوریتمها، پیش از این نیز با دادههای جهتدار و مغرضانه تغذیه شدهاند. مهاجمان میتوانند با علم بر اینکه این مجموعهدادهها جهتدار هستند؛ با همین دادهها به آموزش الگوریتمها بپردازند. انکارپذیری قابلقبولی که در این روش ایجاد میشود، همان عاملی است که این حملات را بهصورت بالقوه مؤثر و کارساز خواهد کرد. مهاجمان، افکار عمومی را بهواسطهی الگوریتمهایی که بهصورت عمدی آموزشدیدهاند، بهگونهای هدایت میکنند که منجر به تشدید دودستگی و تعصب در جوامع شوند.
الگوریتم «مسمومسازی» با دستکاری دادههای آموزشی، ایدهی جدیدی نیست. مقامات ارشد اطلاعاتی آمریکا هشدار دادهاند که مهاجمان سایبری ممکن است مخفیانه به دادهها دسترسی پیدا کنند و با دستکاری در آنها، موجب شوند که دادهها بهکلی از اعتبار ساقط شوند. واضح است که اثبات کردن نیات بدخواهانهی موجود در پسِ این اقدامها، موضوعی بسیار چالشبرانگیز برای بررسی و پیشآگاهی دادن در مورد آن است.
اما انگیزهی چنین اقداماتی ممکن است موضوعی باشد که در حاشیه قرار بگیرد. درواقع هرگونه تعصب و سوگیری میتواند برای ما جای نگرانی داشته باشد. دولتها، شرکتها و اشخاص بهطور فزایندهای در حال جمعآوری و استفاده از دادهها به روشهایی گوناگون هستند که ممکن است نوعی تعصب یا سوگیری را به همراه داشته باشند.
قطعا تعصب، یک چالش سیستماتیک به حساب میآید؛ موضوعی که نیازمند راهحلهایی جامع است. راهحلهای پیشنهادی فعلی برای پیشگیری از انحراف ناخواسته در هوش مصنوعی شامل افزایش تنوع نیروی کار، گسترش دسترسی به دادههای آموزشی متنوع و ایجادشفافیت الگوریتمی (بهمعنای قابلیت مشاهدهی نحوهی تولید خروجی در الگوریتمها) هستند.
پیشتر، اقداماتی با هدف پیادهسازی این ایدهها صورت گرفته است. مقامات دانشگاهی و ناظران صنایع، خواستار اعمال نظارت قانونی شدهاند؛ بهگونهای که سوگیریهای فناوری بهدقت تحت نظر قرار بگیرند. شرکتهای فنی متعهد شدهاند که با متنوع ساختن نیروی کار خود و ارائهی آموزشهای مرتبط، با سوگیری ناخودآگاه در مورد محصولات خود مبارزه کنند.
همزمان با پیشرفت فناوری در طول تاریخ، ما باید به بررسی چگونگی بهکارگیری الگوریتمها در جامعه و نتایج حاصل از آن ادامه دهیم. شناسایی و رسیدگی به جهتگیریها در کسانی که الگوریتمها را توسعه میدهند و همچنین در دادههای مورد استفاده برای آموزش آنها، راهی طولانی برای حصول اطمینان از این است که سیستمهای هوش مصنوعی در نهایت همهی ما را بهرهمند خواهند کرد؛ نه فقط آنهایی را که از آن بهرهبرداری میکنند