گوگل دانشمندان را نشان می دهد که از “لحن مثبت” در تحقیقات هوش مصنوعی استفاده می کنند ، اسناد نشان می دهد | فن آوری

[ad_1]

در خبرنامه Guardian Today در ایالات متحده مشترک شوید

امسال ، گوگل با راه اندازی مروری بر “موضوعات حساس” به تلاش برای کنترل بیشتر کار دانشمندان خود پرداخت و طبق گزارشات داخلی و مصاحبه های محققان درگیر ، حداقل در سه مورد از نویسندگان خواسته شد تا از پوشش منفی این فناوری خودداری کنند. کار کردن

با توجه به صفحات وب داخلی که این امر را توضیح می دهد ، روش جدید بررسی Google ، محققان را ملزم به مشورت با گروه های حقوقی ، سیاسی و جامعه قبل از رفتن به موضوعاتی مانند تجزیه و تحلیل چهره و روحیه و همچنین مقوله های نژادی ، جنسیتی یا سیاسی می کند. خط مشی.

یکی از صفحات این محققان می گوید: “پیشرفت در فناوری و افزایش پیچیدگی محیط خارجی به طور فزاینده ای منجر به شرایطی می شود که پروژه های به ظاهر توهین آمیز مسائل اخلاقی ، اعتباری ، نظارتی و قانونی را مطرح می کنند.” رویترز نتوانست تاریخی را برای این پست تعیین کند ، اگرچه سه کارمند فعلی گفتند که این سیاست از ماه ژوئن آغاز شده است.

گوگل از اظهار نظر در مورد ماجرا خودداری کرد.

هشت کارمند فعلی و سابق گفتند ، روند “موضوعات حساس” تعدادی کنترل به بررسی استاندارد اسناد Google برای یافتن مشکلاتی از جمله افشای اسرار تجاری اضافه می کند.

برای برخی از پروژه ها ، نمایندگان Google در مراحل بعدی مداخله کردند. مطابق با مکاتبات داخلی که توسط رویترز خوانده شد ، یک مدیر ارشد گوگل که مطالعه در مورد توصیه های فناوری در مورد محتوا را بررسی کرد ، کمی قبل از انتشار در تابستان امسال ، به نویسندگان گفت “برای ایجاد لحن مثبت احتیاط زیادی داشته باشند”.

مدیر افزود: “این بدان معنا نیست که ما باید از مشکلات واقعی پنهان شویم” که توسط نرم افزار ایجاد شده است.

مکاتبات بعدی محقق با بازرسان نشان می دهد که نویسندگان “برای حذف همه پیوندها به محصولات Google به روز شده اند”. پیش نویس ، که رویترز را مشاهده کرد ، از YouTube متعلق به Google نام می برد.

چهار محقق ، از جمله دانشمند ارشد مارگارت میچل ، گفتند که آنها معتقدند گوگل شروع به مداخله در تحقیقات مهم در مورد آسیب احتمالی فناوری می کند.

میچل گفت: “اگر با توجه به تخصص خود موضوع مربوطه را مورد تحقیق قرار دهیم و به دلایلی كه با كیفیت ارزیابی كارشناسی مطابقت ندارد اجازه انتشار آن را نداریم ، پس با مشكل جدی سانسور روبرو می شویم.”

گوگل در وب سایت عمومی خود اظهار داشت که دانشمندان از آزادی “قابل توجهی” برخوردارند.

پس از خروج ناگهانی دانشمند تیمنیت گبرا ، که تیمی متشکل از 12 نفر را با میچل ، که در زمینه اخلاق نرم افزار هوش مصنوعی کار می کردند ، هدایت تیمی متشکل از 12 نفر را آغاز کرد ، این ماه تنش بین گوگل و برخی از کارمندان آن ایجاد شد.

گبرو می گوید گوگل پس از زیر سوال بردن دستور عدم انتشار مطالعاتی که ادعا می کند هوش مصنوعی تقلید از گفتار می تواند جمعیت حاشیه نشین را در معرض آسیب قرار دهد ، او را اخراج کرد گوگل گفته استعفای وی را پذیرفته و تسریع کرده است. تعیین اینکه آیا سند جبرا مروری بر “موضوعات حساس” بود امکان پذیر نبود.

جف دین ، ​​معاون ارشد Google ، این ماه گفت که روزنامه بدون بحث در مورد تلاش برای حل آن ، در مورد آسیب احتمالی صحبت کرد.

دین افزود که Google از AI Ethics Fellowship پشتیبانی می کند و “به طور فعال در حال بهبود روند بررسی سند است زیرا ما می دانیم که کنترل و تعادل بیش از حد ممکن است دست و پا گیر باشد.”

مباحث ظریف

انفجار در تحقیق و توسعه هوش مصنوعی در صنعت فناوری ، ایالات متحده و سایر کشورها را مجبور به پیشنهاد قوانینی برای استفاده از آن کرده است. برخی از تحقیقات استناد می کنند که نشان می دهد نرم افزار تجزیه و تحلیل صورت و سایر هوش مصنوعی می توانند تعصب را حفظ کرده و حریم خصوصی را نقض کنند.

در سال های اخیر ، Google با استفاده از فناوری تفسیر سeriesالات جستجوی پیچیده ، حل توصیه ها در YouTube و جمله های تکمیل خودکار در Gmail ، هوش مصنوعی را در خدمات خود گنجانده است. دین گفت ، سال گذشته ، محققان وی بیش از 200 مقاله در مورد توسعه مسئولانه هوش مصنوعی در میان بیش از 1000 پروژه منتشر کردند.

طبق یک صفحه وب داخلی ، مطالعه خدمات Google برای آینده نگری یکی از “موضوعات حساس” سیاست جدید این شرکت است. دهها مورد دیگر از “موضوعات حساس” ذکر شده شامل صنعت نفت ، چین ، ایران ، اسرائیل ، Covid-19 ، امنیت خانه ، بیمه ، داده های مکان ، مذهب ، وسایل نقلیه خودران ، مخابرات و سیستم هایی است که محتوای وب را توصیه یا شخصی سازی می کنند.

سند Google ، که نویسنده آن را با لحنی مثبت بیان کرده است ، در مورد توصیه AI است که خدماتی مانند YouTube برای شخصی سازی کانالهای محتوای کاربر استفاده می کنند. این پروژه که توسط رویترز مورد بررسی قرار گرفت ، شامل “ترس” از اینكه این فناوری می تواند به “اطلاعات غلط ، تبعیض آمیز یا غیرمنصفانه در غیر این صورت” و “تنوع ناكافی محتوای” كمك كند و همچنین منجر به “قطب سیاسی” شود.

در انتشار نهایی آمده است که سیستم ها می توانند “اطلاعات دقیق ، انصاف و تنوع محتوا” را ارتقا دهند. نسخه منتشر شده به نام چرا بهینه سازی می کنید؟ محققان Google با همسویی سیستم های توصیه شده با ارزش های انسانی ، این فرصت را از دست داده اند. رویترز نمی تواند دلیل آن را مشخص کند.

این منبع گفت ، مقاله ای در مورد هوش مصنوعی برای درک یک زبان خارجی اشاره به چگونگی اشتباهات Google Translate را پس از س byال توسط بازرسان شرکت کاهش داد. در نسخه منتشر شده آمده است که نویسندگان از Google Translate استفاده کرده اند و در یک جمله جداگانه آمده است که بخشی از روش تحقیق “مشاهده و اصلاح ترجمه های نادرست” بوده است.

در مقاله ای که هفته گذشته منتشر شد ، یک کارمند Google روند را “طولانی مدت” توصیف کرد که شامل بیش از 100 مبادله ایمیل بین محققان و بازرسان ، با توجه به مکاتبات داخلی است.

محققان دریافته اند که هوش مصنوعی می تواند اطلاعات شخصی و مطالب دارای حق چاپ را سرفه کند ، از جمله صفحه ای از رمان هری پاتر که برای توسعه سیستم از اینترنت استخراج شده است.

یک فرد آشنا به این موضوع گفت ، پیش نویس شرح می دهد که چگونه چنین افشاگری می تواند باعث نقض حق چاپ یا نقض قوانین حریم خصوصی اروپا شود. پس از بررسی شرکت ها ، نویسندگان خطرات قانونی را برطرف کردند و گوگل سند را منتشر کرد.

[ad_2]