با افزایش اهمیت هوش مصنوعی به عنوان یک ابزار تجاری و اجتماعی، خطرات ناشی از سوء استفاده احتمالی آن نیز افزایش می‌یابد. از تصمیمات اشتباه مالی گرفته تا حساب‌های توییتر، سوالات مربوط به سوگیری و رفتار اخلاقی بیش از گذشته جدی می شودLohovska یک دانشمند و معمار داده و سفیر هوش مصنوعی است که با خدمات جهانی AI و خدمات داده در HPE Pointnext Services کار می‌کند. تخصص وی طیف وسیعی از موضوعات را شامل می‌شود: از جمله هوش مصنوعی، علم داده، مدیریت ریسک و امنیت داده‌ها. Enterprise.nxt به تازگی با Lohovska برای بحث در مورد مسائل نوظهور پیرامون اخلاق هوش مصنوعی و نحوه تأثیر آنها بر همه چیز از همه گیری جهانی گرفته تا حاکمیت شرکتی، گفتگو کرده است:

اخلاق هوش مصنوعی برای شما چه معنایی دارد؟

اخلاق هوش مصنوعی جنبه‌های مختلفی دارد، از چالش‌های فنی و اجتماعی گرفته تا جنبه‌های قانونی. از دیدگاه فنی مجموعه‌ای از قوانین و فرآیندها است که قوام و انصاف یک مدل هوش مصنوعی را تا حد امکان تضمین می‌کند.

از نظر جنبه‌های انسانی شامل سابقه و تنوع تیم و افرادی است که در این فرایند دخیل هستند. با هوش مصنوعی، ما باید اطمینان دهیم که سوگیری‌های مختلف را می‌توان با دخالت انسان برطرف کرد. ما باید زمان بیشتری را صرف تفسیر و توضیح‌پذیری هوش مصنوعی کنیم.

چرا همه اینها اهمیت دارد؟ آیا الگوریتم های هوش مصنوعی در حال اجرا نیستند؟

در مورد داده‌های تصویر  مانند دستگاه اشعه ایکس یا MRI . الگوریتم‌های مختلفی وجود دارد که برای تشخیص موارد خاص در بدن انسان آموزش دیده‌اند. اگر مجموعه داده ها فقط برای افراد بالای 25 سال آموزش داده شود و این دستگاه MRI در بیمارستان کودکان مستقر شود، در این صورت صحت و قابلیت اطمینان این دستگاه‌ها درست نخواهد بود. به عنوان مثال دیگر، شما می‌خواهید خودروی خودران شما را به جای گاو یا سگ در خیابان در اولویت قرار دهد.

به نظر می‌رسد تعصب بخشی ذاتی از طبیعت انسان است، بنابراین به طور طبیعی، بخشی از الگوریتم‌های ما خواهد بود.

اطلاعات غلط چیز جدیدی نیست. آنها تا زمانی که انسان وجود داشته باشد وجود خواهند داشت. تفاوت امروز در این است که با مقیاس هوش مصنوعی، این روندها به ویژه در مورد اخبار و رسانه‌های اجتماعی تقویت می‌شود. متأسفانه، هوش مصنوعی فقط برای انتخاب محبوب‌ترین گرایش ها تنظیم شده است و این گرایش ها اغلب قوی‌ترین و غالب‌ترین احساسات انسانی، یعنی منفی‌گرایی، خشم و عصبانیت را نشان می‌دهند. متأسفانه هوش مصنوعی می‌تواند ابزاری بسیار قدرتمند برای دستکاری گسترده انسان باشد.

آیا این موضوع مسئله‌ای است که حل آن برای هوش مصنوعی امکان‌پذیر است؟

من راه حلی برای نحوه برخورد با آن ندارم. تکنیک هایی در مبارزه با اطلاعات غلط وجود دارد، اما در مورد میزان آزادی بیان در این راه از بین می‌رود.

مزایای شگفت‌انگیزی نیز وجود دارد

یک مثال خوب این است که چگونه از هوش مصنوعی برای اثبات اینکه تغییرات آب و هوایی و جمعیتی و سلامتی بر بیماری‌های گرمسیری و به طور خاص برای تب دانگ که توسط پشه‌ها منتقل می‌شود، تأثیر می‌گذارد. جهان توسعه یافته مدتی است که آن را نادیده گرفته است زیرا تب دنگی فقط در مناطق گرمسیری کشورهای در حال توسعه وجود داشته است، هرچند که تعداد آنها هر دو سال دو برابر می شود. فیلیپین، تایلند و هند را بسیار تحت تأثیر قرار می‌دهد اما با تغییر آب و هوا ما اکنون آن را در ایتالیا، یونان و فرانسه مشاهده می‌کنیم. بنابراین توجه مردم را به خود جلب کرده، به خصوص که هیچ درمانی برای آن وجود ندارد. با استفاده از هوش مصنوعی می‌توان مدل‌سازی و مشاهده کرد که چگونه تغییرات آب و هوایی باعث بروز فراز و نشیب در همه گیری‌ها می‌شود و این بحث را برای موقعیت‌های مشابه باز می‌کند.

ما در حال برداشتن قدم‌هایی برای اولین نقشه مکان تب دنگی هستیم، تراکم جمعیت و داده‌های آب و هوایی را می‌دهیم. در حال تلاش برای پیش‌بینی مکان شیوع بعدی بیماری هستیم، داده‌ها و شواهد کافی برای ساخت مدل‌های پیش‌بینی جمع‌آوری می‌کنیم تا بتوانیم آن را چند هفته یا یک ماه قبل پیش‌بینی کنیم. ایده اصلی این است که ما می‌توانیم هشدارهایی ایجاد کنیم تا با یک برنامه یا اعلان ایمیل به اطلاع عموم و مقامات بهداشتی برسانیم. باز هم، هیچ دارو یا واکسنی برای این بیماری وجود ندارد، اما اقدامات زیادی وجود دارد که می‌توان برای کاهش تأثیر شیوع بیماری تب دنگی انجام داد، مانند افزایش بهداشت و یا سرپناه نگه داشتن افراد در یک دوره پرخطر، مشابه COVID-19 .

چگونه می‌توان از هوش مصنوعی برای اخلاقی کردن جنگ‌ها می‌توان استفاده کرد. آیا چیزی به نام جنگ اخلاقی وجود دارد؟

از نظر اخلاقی، رویکردهای نظامی خاصی وجود دارد که می‌تواند به حفاظت و دفاع از ماموریت‌های بشردوستانه در کشورهای مختلف کمک کند و می‌تواند خسارت وارده به افرادی را که در تلاش برای کمک به آسیب‌پذیرترین افراد هستند را، به حداقل برساند. از هوش مصنوعی می‌توان برای تجزیه و تحلیل اطلاعات در مورد محل جمعیت و مأموریت های بشردوستانه در آنجا استفاده کرد. الگوریتم‌ها را می‌توان برای تشخیص افراد و فعالیت‌های آنها آموزش داد به عنوان مثال آنها پزشک هستند، نه سرباز.

این نوع تحقیقات در زمینه اخلاق هوش مصنوعی چگونه برای شرکت قابل اجرا است؟

در مورد اصول هوش مصنوعی و به کارگیری آنها در راه‌هایی که در مورد نحوه تعامل نیروی فروش و نیروی مهندسی با مشتریان است بسیار فکر می‌کنیم. شرایط سختی وجود دارد که در آن مشتریان قصد خاصی دارند که با اصول شرکت مطابقت ندارد. من به طور روزانه با این موضوع در ارتباط با مشتریانمان در مورد نحوه فکر آنها در خصوص هوش مصنوعی و نحوه استفاده از آنها برای مدیریت داده‌های مشتریان و راهنمایی آنها در رویکرد مناسب برخورد می‌کنم.

چالش این است که این مفاهیم را در مقیاس جهانی تراز کنیم و از داشتن هزار رویکرد متفاوت به اخلاق هوش مصنوعی اجتناب کنیم. و البته، موارد بیشتری وجود دارد که می‌توانیم درباره هوش مصنوعی بیاموزیم و خیلی چیزهای دیگر که می‌توانیم با ارتقای اخلاق هوش مصنوعی از زوایای مختلف انجام دهیم تا پاسخگوتر و مسئولیت‌پذیرتر شود.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

Fill out this field
Fill out this field
لطفاً یک نشانی ایمیل معتبر بنویسید.
You need to agree with the terms to proceed

بیشتر بخوانید…

keyboard_arrow_up
باز کردن چت
سلام
چگونه می توانم کمک کنم؟