جدیدترین مطالب را دنبال کنید

ماشین‌ها به گونه‌ای متفاوت می‌بینند

04:009600
FavoriteLoadingافزودن به علاقمندی

ما در ابتدای درک این سؤال هستيم كه چرا هوش مصنوعی را می‌توان به سادگی فریب داد و چگونه از اين فرآيند می‌توان جلوگیری نمود.

چرا ماشين (هوش مصنوعی) گمان می‌كند لاك پشت يك موشك است؟ (با توجه به یافتن موشک در تصاویری که برای پیدا نمودن لاک‌پشت به هوش مصنوعی داده می‌شود.) اين يك جك احمقانه نيست بلكه يكی از تازه‌ترين مثال‌هایی است كه بيان می‌كند ماشين‌ها حتی با دیدن الگویی که تنها شبیه به الگوی اولیه است، می‌توانند گمراه شوند.

هوش مصنوعی را می‌توان به سادگی به وسيله‌ی تصاويری که از آن‌ها به تصاویر متناقض یاد می‌شود، گيج نمود. این تصاویر شامل تغييراتی است كه برای بشر قابل تشخیص است. الکساندر مدری(۱) در MIT همچون بسياری از محققان ديگر گمان می‌بردند كه می‌توان توسط الگوريتم يا آموزشی بهتر به هوش مصنوعی این اشکالات را از بين برد. اما او و همكارانش پی بردند كه به نظر می‌آید اين تناقض شامل خصيصه‌هایی از تصویر است كه ما نمی‌توانيم درك كنيم، در حالی كه ماشين‌ها می‌توانند. شواهد اوليه بر اين مبناست که با فهم بیشتر اين ویژگی‌ها، اين امكان وجود دارد كه بتوان از پارامترهایی كه باعث ایجاد آنها می‌شوند، جلوگيری كرد.

وقتی ما در تصویر یک سگ و یک گربه می‌بینیم، هوش مصنوعی این‌طور نمی‌بیند.

اكثر تصاویر متناقض از نظر ناظر منحرف كننده بنظر می‌رسد. ماشين دو تصوير همانند كه به نظر يكسان می‌رسد را به دو صورت متفاوت تفسير می‌کند. برای مثال با دو تصوير ظاهرا مشابه از يك گربه، هوش مصنوعی گمان می‌برد كه یكی از آن‌ها سگ است. به عنوان يك آزمايش پژوهشی، فريفتن هوش مصنوعی می‌تواند سرگرم كننده باشد، اما اگر هوش مصنوعی در پزشكی يك تومور واضح را در يك اسكن طبی از دست دهد ممكن است به پیامدهای فجیعی بيانجامد.

اكنون مدری و گروهش به نظر می‌آيد كه گمان‌های محكمی، نسبت به این‌كه هوش مصنوعی نمی‌تواند تصاوير را به مانند انسان‌ها ببيند تایید كرده‌اند. گفته می‌شود كه هوش مصنوعی بجز تكيه كردن به جزییاتی مانند شكل گوش يا طول بينی برای طبقه بندی تصاوير حيوانات، از خصيصه‌هایی كه برای انسان قابل درك نيست استفاده می‌كند. به گفته مَدری ما نمی‌دانیم در واقع اين خصيصه‌هاى در نظر گرفته شده چه هستند، ممكن است بزرگ يا كوچك باشند اما هرچه هستند، مغز انسان توانایی برچيدن آنها را ندارد که اين تيم از آنها به ويژگی‌های بی‌ثبات‌کننده یاد می‌کند. چرا كه به نظر هوش مصنوعی را به اين تصاویر متناقض آسيب‌پذير می‌كند که اين ويژگی‌ها احتمالا تا حدی از هم گسيخته‌اند.

برای یافتن اين ويژگی‌های بی‌ثبات کننده که بخشی از مشكل هستند تيم مَدری مجموعه‌ای استاندارد از از تصاوير سگ‌ها و گربه‌ها را جمع‌آوری و يك سری از مثال‌های متناقض را توليد نمود كه شامل بالا بردن پيكسل‌ها در هر تصوير بود.

آن‌ها از اين تصاوير برای آموزش هوش مصنوعی استفاده نمودند. در زمانی كه به هوش مصنوعی تصاويری غير متناقض نشان داده می‌شود او آن‌ها را درست ارزيابی می‌كند بدين معنی كه اين خصيصه‌های بی‌ثبات‌کننده به درستی تشخيص سگ يا گربه بودن كمك كردند به جای اين‌كه به نتيجه‌ای بی‌حاصل بیانجامند.

دانشمندان سپس از يك هوش مصنوعی استفاده كرده‌اند تا مشخص كنند که ماشین بايد بر كدام بخش از تصوير تمركز كند. آن‌ها سپس اين بخش‌ها را از تصوير قبل از آموزش دادن به يك هوش مصنوعی ديگر جدا نمودند، در واقع هدف مجبور كردن ماشين به استفاده بيشتر و بهتر از روش‌ها و متدهای انسانی برای گزينش نهایی بود. نتيجه اين تحقیقات منجر به ایجاد يك هوش مصنوعی با مقاومت بيشتر نسبت به اين تصاوير متناقض بود. بمانند حالتی كه تنها با تلاش‌های طاقت فرسا برای تصحيح اشكالات هوش مصنوعی ميسر است. به گفته Pushmeet Kohli در موسسه تحقيقاتی شركت ذهن عميق(۲):

فهم اين موضوع قدم خوبی در مسير هوش‌های مصنوعی است تا بتوان آن‌ها را در دنيای واقعی مورد استفاده قرارداد.

به گفته Marta Kwiatkowska از دانشگاه آکسفورد:

مفهوم اين ویژگی‌ها یاری‌دهنده و مفيد است و به سمتی حرکت می‌کند که بتواند توصيفی برای اين پديده باشد.


(۱) Alexander Madry

(۲) DeepMind

0 0 vote
Article Rating
لینک کوتاه
https://sciencetoday.ir/?p=5206

مشترک شوید
آگاه شوید
guest
0 Comments
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
()
x
کانال علم روز