آموختن از یادگیری ماشین

بوکمارک (0)
ClosePlease login

No account yet? Register

جهان جعبه سیاهی است پر از ویژگی‌های فوق‌العاده: ممکن است قابل پیش‌بینی باشد اما این بدان معنا نیست که قابل درک است.

بوکمارک (0)
ClosePlease login

No account yet? Register

در روزگار خوب دنیا شبیه به یک راه آهن خوب است :همه چیز بر اساس اصول، قوانین، قواعد و کلیاتی اتفاق می‌افتد که ما انسان‌ها می‌فهمیم و می‌توانیم آن‌ها را با جزئیات بکارببریم. ما تاخیرهای گاه گدار قطارها را به عنوان استثناء می‌بخشیم. اما در مواقع دیگر زندگی را به صورت ترافیک در بزرگراه تجربه می‌کنیم. همان قواعد و قوانین فیزیک اعمال می‌شود، اما بخش‌های محرک بسیار زیادی وجود دارد که نمی‌توانیم انباشته شدن بعدی خودروها را پیش‌بینی کنیم و نمی‌توانیم جزئیات این یکی را توضیح دهیم. “جزئیاتی” که می‌تواند به یک خودرو اجازه دهد با گلگیر خمیده رها شود در حالی که دیگری در یک گلوله آتش فوران می‌کند.

آن‌چه در مورد انباشته شدن ماشین‌ها درست است، در مورد یک پیاده‌روی پاییزی بدون حادثه در مسیری که دقیقاً با آن برگ‌ها چیده شده است نیز صادق است. هر دو تصادفی هستند که در آن وابستگی‌ها میان جزئیات غیرقابل شمارش بر قدرت توضیح قواعدی که آنها را تعیین می‌کنند غلبه می‌کند. یک نتیجه را نفرین می‌کنیم  و از دیگری در لحظه‌ای آرام شگفت‌زده می‌شویم. اکنون آخرین فناوری پارادایمی ما، یادگیری ماشینی، ممکن است دنیای روزمره را بیشتر تصادفی نشان دهد به جای این‌که قوانینی حاکم بر آن باشد. اگر چنین است، به این دلیل است که یادگیری ماشینی قدرت معرفتی خود را از نبود انواع تعمیم‌هایی که ما انسان‌ها درک کنیم یا به کار ببریم، به دست می‌آورد.عدم شفافیت سیستم‌های یادگیری ماشین نگرانی‌های جدی‌ای را در مورد قابل اعتماد بودن و تمایل آنها به جانبداری ایجاد می‌کند. اما واقعیت وحشتناک این است که کارکردن آن‌ها می‌تواند ما را به درک و تجربه جدیدی از چیستی جهان و نقش ما در آن برساند.یادگیری ماشین کاملاً متفاوت از برنامه‌نویسی سنتی است. در واقع، برنامه‌های سنتی نتیجه‌ای از درک مبتنی بر قانون و مسیری از جهان و تجربه ما می‌باشد. یک مثال رایج از نمادی ترین نوع یادگیری ماشینی، نوشتن نرم افزاری است که اعداد دست نویس را تشخیص می‌دهد. برنامه‌نویس به طور سنتی به رایانه دستور می دهد که “1” به صورت یک خط راست قائم نوشته می‌شود، “8” شامل یک دایره کوچکتر روی یک دایره بزرگتر است و غیره. این می‌تواند به خوبی کار کند، اما اتکای آن به اعداد دست‌نویس  ایده‌آل‌های افلاطونی به این معنی است که درصد نسبتا بالایی از آن توسط دست‌های فانی در این ناحیه ناقص اشتباه شناسایی می‌شود. مدل‌های یادگیری ماشینی در عوض برنامه‌هایی که از مثال‌ها یاد می‌گیرند، هستند. برای ایجاد یک مدل یادگیری ماشینی برای تشخیص اعداد دست‌نویس، توسعه‌دهندگان چیزی در مورد آنچه ما انسان‌ها در مورد شکل اعداد می‌دانیم به ماشین نمی‌گویند. در عوض، در یک رویکرد رایج، توسعه‌دهندگان تصاویری از هزاران نمونه از اعداد دست‌نویس که متفاوتند را به آن می‌دهند و هر کدام به عنوان عددی برچسب‌گذاری شده‌اند. سپس سیستم به صورت الگوریتمی روابط آماری را بین پیکسل‌هایی که تصاویری یکسان دارند، کشف می‌کند. مجموعه‌ای از پیکسل‌هایی که یک خط عمودی دارند احتمال”1″ بودن را اضافه می‌کند و احتمال “3” بودن آن را کاهش می‌دهند و غیره.

«ما نمی‌دانیم یادگیری ماشینی چگونه کار می‌کند!» صرفا می‌شنویم که این مدل‌ها واقعاً کار می‌کنند.

در برنامه‌های یادگیری ماشینی در زندگی واقعی، تعداد پاسخ‌های ممکن می‌تواند بسیار بیشتر از ۱۰ رقم باشد، همچنین مقدار داده‌ها بسیار زیاد و همبستگی‌های بین نقاط داده آن‌قدر پیچیده است که ما انسان‌ها اغلب به سادگی نمی‌توانیم آن‌ها را درک کنیم. به عنوان مثال، متابولیسم انسان مجموعه‌ای دیوانه‌وار پیچیده از فعل و انفعالات و اثرات وابسته به هم است. بنابراین، تصور کنید که یک سیستم یادگیری ماشینی  که در پیش‌بینی نحوه واکنش سیستم بدن انسان به مجموعه‌ای از علل خوب باشد، ایجاد شود. ما این مدل راDeepMetab  می‌نامیم،این مدل تبدیل به مکانی می‌شود که پزشکان، محققان، افراد عادی در روزمره و افراد افسرده برای پرسیدن سوال، کشف ایده‌ها و بازی “چه می شد اگر؟” درباره‌ی  ساختمان انسان از آن استفاده می کنند.  DeepMetab  به مهم‌ترین منبع دانش در مورد بدن انسان تبدیل می‌شود، حتی اگر نتوانیم بفهمیم که چگونه خروجی خود را تولید می‌کند.هرچه بیشتر و بیشتر به مدل‌های یادگیری ماشینی (MLM)  مانند DeepMetab که نمی‌توانیم آن‌ها را بفهمیم وابسته می‌شویم، می‌توانیم شروع به گفتن یکی از دو روایت به خود کنیم: روایت اول می‌گوید که توضیح‌ناپذیری نقطه ضعفی است که ما اغلب باید با آن کنار بیاییم تا بتوانیم خروجی مفید و احتمالاتی را که MLM ها تولید می‌کنند به دست آوریم.·      دومی می‌گوید که توضیح ناپذیری یک اشکال نیست، بلکه یک حقیقت است: MLMها کار می‌کنند زیرا در خواندن جهان بهتر از ما هستند: آنها بدون نگرانی از توضیح دادن خودشان به انسان‌ها از ارتباط آماری داده‌های بیشتر و دقیق‌تر از آنچه که سیستم‌های دیگر می‌توانند مدیریت کنند، نتیجه می‌گیرند. هر بار که یک شهروند یا تنظیم کننده نگران با ناامیدی قابل درکی فریاد می‌زند: «ما نمی‌دانیم یادگیری ماشینی چگونه کار می‌کند!»، می‌شنویم که این مدل‌ها واقعاً کار می‌کنند. اگر مدل‌های یادگیری ماشینی با کنار گذاشتن قواعد، اصول، قوانین و تعمیم‌های قابل فهمی که پیچیدگی را با ساده‌سازی آن توضیح می‌دهد، کار می‌کند، ما با فریاد می‌گوییم «این کار می‌کند!» ما در زیر هارمونی کره‌ها صدای تق تق و رنده کردن تمام نکات و جزئیات را می‌بینیم که خود را در وابستگی متقابلشان به‌عنوان واقعی نشان می‌دهند. موفقیت فناوری ما به ما می‌آموزد که جهان جعبه سیاه واقعی است.از ساعت‌های ما گرفته تا ماشین‌هایمان، از دوربین‌ها تا ترموستات‌هایمان، یادگیری ماشینی در اکثر زندگی روزمره ما گنجانده شده است.  از آن برای معرفی ویدیوها، تلاش برای شناسایی سخنان نفرت‌انگیز، هدایت وسایل نقلیه در سیارات دیگر، کنترل شیوع بیماری‌ها استفاده می‌شود و همچنین برای مبارزه با کاهش بحران آب و هوا ضروری است. با اینکه ناقص است و می‌تواند سو گیری و جانب‌داری‌‌‌های اجتماعی را تقویت کند، اما به هر حال به استفاده از آن ادامه می‌دهیم, زیرا کار می‌کند. اینکه یادگیری ماشینی همه این کارها را بدون اعمال قوانین برای جزئیات انجام می‌دهد، شگفت آور و حتی ناراحت کننده است. ما به قدری قوانین را بر جزئیات ترجیح می‌دهیم که به نظرمان احمقانه‌ست که به یک سیستم یادگیری ماشینی مانند  بازی Go  بدون اینکه قوانین را به آن بگوییم و در عوض صدها هزار تابلو و حرکت برای تجزیه و تحلیل به آن بدهیم. اما این‌گونه است که یادگیری ماشین به بهترین بازیکن Go در تاریخ تبدیل شده است. در واقع، وقتی توسعه‌دهندگان داده‌های مربوط به یک حوزه را به سیستم می‌دهند، معمولاً به طور هدفمند آنچه را که در مورد روابط متقابل بین داده‌های آن می‌دانیم، پنهان می‌کنند. به عنوان مثال، سیستم مراقبت‌های بهداشتی MLM احتمالاً خود را بر روی نقاط داده از میلیون‌ها پرونده بهداشتی که شامل اطلاعاتی در مورد وزن، سن، سابقه مصرف سیگار، فشار خون، ضربان قلب، بیماری‌های قبلی، درمان و نتایج است، آموزش داده است. توسعه‌دهندگان به سیستم تعمیم‌هایی مانند این که علائم ،نشانه‌ای از بیماری‌های خاص هستند یا اینکه بیماری‌هایی را می‌توان با داروهای خاص درمان کرد، نمی‌گویند، مگر گاهی اوقات بیمار آلرژی یا بیماری قلبی داشته باشد. ما به آن نمی‌گوییم که بین سیگار کشیدن و بیماری‌های ریوی، یا بین )LDLلیپوپروتئین‌های با چگالی کم یا “کلسترول بد”) و داروی سیمواستاتین یا بین ظرفیت ریه و سطح اکسیژن خون رابطه وجود دارد. فرآیند آموزش MLM از تعمیم‌ها شروع نمی‌شود، معمولاً تعمیم‌ها را خروجی نمی‌دهد و ممکن است تعمیم‌هایی قابل تفسیر در این بین وجود نداشته باشد.

مثل این است که تعجب کنید که چگونه اتومبیل شما در آن برخورد چند اتومبیل از آسیب جدی جلوگیری کرد.

در حال حاضر موهای پشت گردن افرادی که حتی کمی با یادگیری ماشینی آشنا هستند،  سیخ شده است، زیرا یک مدل یادگیری ماشین دقیقاً با تعمیم داده‌ها ایجاد می‌شود. به عنوان مثال، اگر یک شناسه دست‌خط MLM از نمونه‌هایی که به او یاد داده شده تعمیم نیابد، در دسته‌بندی کاراکترهایی که قبلاً ندیده، به ‌شدت شکست می‌خورد. شکست در تعمیم، آن را به یک مدل بی‌فایده تبدیل می کند. از نظر فنی، بیش برازش داده شده  (over fitted) است. اما ما در تعمیم‌های MLM برخلاف تعمیم‌های سنتی از تشریح جزئیات استفاده می‌کنیم. ما تعمیم‌های سنتی را دوست داریم زیرا (الف) می‌توانیم آنها را درک کنیم. (ب) آن‌ها اغلب نتیجه‌گیری‌های قیاسی را امکان‌پذیر می‌کنند. و (ج) می‌توانیم آن‌ها را برای جزئیات اعمال کنیم. اما (الف) تعمیم‌های یک MLM همیشه قابل درک نیست. (ب) آن‌ها آماری، احتمالاتی و در درجه اول استقرایی هستند. و (ج) به معنای واقعی و عملی، ما معمولاً نمی‌توانیم تعمیم‌های MLM را اعمال کنیم مگر با اجرای مدل یادگیری ماشینی که از آن‌ها حاصل شده است. علاوه بر این، تعمیم‌های یک MLM می‌تواند به طرز عجیبی خاص باشد: الگوی رگ‌ها در اسکن شبکیه چشم ممکن است نشان دهنده شروع آرتروز باشد، اما تنها در صورتی که 50 عامل  متفاوت دیگر با مقادیر خاص در پرونده سلامت کلی وجود داشته باشد. مثل این است که تعجب کنید که چگونه اتومبیل شما در برخورد با چند اتومبیل از آسیب جدی جلوگیری کرد: اتومبیل باید بر بسیاری از «اگرها»، «وها» و «یاها» غلبه می‌کرد که این رویداد به یک قانون قابل فهم تقلیل نمی‌یابد که شما بتوانید آن را بیان یا به طور منظم در موقعیت دیگری اعمال کنید. یا مانند یک معمای قتل است که تنها زمانی قاتل را نشان می‌دهد که سرنخ‌ها به گونه‌ای قابل تعمیم و اعمال در پرونده‌های قتل آینده در کنار هم قرار نگرفته باشند. برخورد ما با MLM ها وجود کلیات، قوانین یا اصول را انکار نمی‌کند.  بلکه کافی بودن آن‌ها برای درک آن‌چه در جهان پیچیده‌ی ما اتفاق می‌افتد را انکار می‌کند. جزئیات احتمالی، که هر کدام بر دیگری تأثیر می‌گذارند، بر قدرت توضیحی قوانین غلبه می‌کنند و حتی اگر همه قوانین را بدانیم، این کار را انجام می‌دهند. به عنوان مثال، اگر شما قوانین حاکم بر جاذبه گرانشی، مقاومت هوا، جرم یک سکه و زمین را بدانید و اگر  ارتفاعی که سکه از آن رها می‌شود  هم بدانید، می‌توانید زمان برخورد سکه با زمین را محاسبه کنید. این احتمالاً برای رسیدن به هدف عملی شما کافی خواهد بود. اما چارچوب‌بندی سنتی غربی بر قدرت ساکن قوانین بیش از حد تأکید کرده است. برای اعمال کامل قوانین، ما باید هر عاملی را که بر سقوط تأثیر می‌گذارد، بدانیم، از جمله این‌که کدام کبوترها می‌خواهند جریان هوای اطراف سکه در حال غلتش را تغییر دهند  و یا کشش گرانشی ستارگان دوردست  که از همه جهات به طور همزمان آن را می‌کشد، چه تاثیری می‌گذارد. (یادتان آمد دنباله‌دار دوردست را هم بگنجانید؟) برای اعمال قوانین با دقت کامل، باید دانش جامع و غیرممکن شیطانک لاپلاس از جهان را داشته باشیم. این انتقادی از پیگیری قوانین نه علمی و نه عمل علم است، که معمولاً تجربی و به اندازه کافی برای نیازهای ما دقیق است – حتی اگر درجه دقت عملگرایانه ممکن  آنچه را که ما به عنوان نیاز خود می‌پذیریم، شکل دهد. اما باید تعجب کنیم که چرا ما در رفتارمان  با جریان پر هرج و مرج رودخانه در غرب نتوانستیم دو برابر قدم برداریم. در آن اصول واقعی و ابدی نظم وجود دارد که آن را توضیح می‌دهد. چرا ترجیح هستی‌شناختی ما برای تغییر ناپذیر ازلی همیشه در حال چرخش حول آب و خاک است؟

یادگیری ماشینی ممکن است شیفتگی غرب نسبت به اطمینان از قطعیت را به عنوان نشانه‌ای از دانش بشکند.

این‌ها موضوعاتی آشنا در تاریخ فلسفه و دین غرب هستند که بسیار فراتر از محدوده من است. اما به نظر می‌رسد که ما در بخش کوچکی مجذوب روشی شده‌ایم که قوانین ابدی جهان را به اندازه‌ای ساده می‌کند که بتوانیم آن را درک و نتیجه آن را پیش‌بینی و کنترل کنیم. در عین حال، این قوانین ساده و اغلب زیبا، هرج و مرج جزییات را که نه فقط توسط قوانین، بلکه توسط وضعیت هر یک از موارد خاص تعیین می‌شود، از ما پنهان می‌کنند. اما اکنون ما یک فناوری پیش‌بینی و کنترل داریم که مستقیماً از تعاملات آشفته‌ی کوچک و همزمان کلیت ناشی می‌شود. این فناوری به ما تسلط بیشتری می‌دهد ولی در عوض قدرت درک کردن نمی‌دهد. موفقیت آن توجه ما را به آن‌چه از درک ما دور است جلب می‌کند.در عین حال، و به همان دلایل، یادگیری ماشینی ممکن است شیفتگی غرب نسبت به اطمینان از قطعیت را به عنوان نشانه‌ای از دانش بشکند، زیرا نتایج یادگیری ماشینی احتمالی هستند. در واقع، اطمینان کامل از نتایج یک مدل یادگیری ماشینی دلیلی برای شک و تردید در مورد آن مدل است. خروجی‌های یادگیری ماشینی، به‌عنوان احتمالی، درصدی از عدم دقت را در خود دارند؛ یک گزاره احتمالی درست، عبارتی است که به درستی پیش بینی کند که چند بار اشتباه خواهد بود. اکنون مکانیسم‌هایی داریم که ما را با نیرویی از چرخش‌های جزییات متصل در شبکه‌های نامفهوم و ظریف مبهوت می‌کنند، شاید دیگر آن چرخش‌های آشفته را به‌عنوان ظاهری که باید در آن نفوذ کرد، حذف نکنیم. شاید نفوذ ناپذیری تأثیر همه بر همه همان سنگی باشد که ساموئل جانسون برای رد ایده‌آلیسم رادیکال اسقف برکلی انداخت. با این حال، این بار، سنگ در برابر این فرض غربی ما که تغییرناپذیرترین، عمومی‌ترین و قابل دانستن است، عقب‌نشینی خواهد کرد. شاید ما پیچیدگی غیرقابل تصور ساده‌ترین اتفاق را به عنوان چیزی که در نهایت واقعی است در نظر بگیریم. تقدم حوادث و حادثه. و ناکافی بودن 1.4 کیلوگرم مغز ما در برابر چالشی که ما در غرب برای آن در نظر گرفته‌ایم. و دنیای بی‌رحم و ناشناخته‌ی ما که لبه‌های محورهای ادراک ما را کم می‌کند. اگر این اتفاق می‌افتد، به این دلیل است که اکنون می‌توانیم به صدای جزئیات بیشتر از آنچه که می‌توانیم بشماریم، توجه کنیم، که هر کدام یک سیگنال کوچک از بازخوانی نامفهوم جدید ما از جهان است – بازخوانی‌ای که دانش مفید، شگفت‌انگیز و احتمالی را از تأثیر غیرقابل درک همه برهمه، همیشه و همیشه به دست می‌دهد.

 

4.7/5 - (4 امتیاز)
به اشتراک بگذارید
منبع Aeon
ممکن است شما دوست داشته باشید
ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.

go2top