آموختن از یادگیری ماشین
جهان جعبه سیاهی است پر از ویژگیهای فوقالعاده: ممکن است قابل پیشبینی باشد اما این بدان معنا نیست که قابل درک است.

در روزگار خوب دنیا شبیه به یک راه آهن خوب است :همه چیز بر اساس اصول، قوانین، قواعد و کلیاتی اتفاق میافتد که ما انسانها میفهمیم و میتوانیم آنها را با جزئیات بکارببریم. ما تاخیرهای گاه گدار قطارها را به عنوان استثناء میبخشیم. اما در مواقع دیگر زندگی را به صورت ترافیک در بزرگراه تجربه میکنیم. همان قواعد و قوانین فیزیک اعمال میشود، اما بخشهای محرک بسیار زیادی وجود دارد که نمیتوانیم انباشته شدن بعدی خودروها را پیشبینی کنیم و نمیتوانیم جزئیات این یکی را توضیح دهیم. “جزئیاتی” که میتواند به یک خودرو اجازه دهد با گلگیر خمیده رها شود در حالی که دیگری در یک گلوله آتش فوران میکند.
آنچه در مورد انباشته شدن ماشینها درست است، در مورد یک پیادهروی پاییزی بدون حادثه در مسیری که دقیقاً با آن برگها چیده شده است نیز صادق است. هر دو تصادفی هستند که در آن وابستگیها میان جزئیات غیرقابل شمارش بر قدرت توضیح قواعدی که آنها را تعیین میکنند غلبه میکند. یک نتیجه را نفرین میکنیم و از دیگری در لحظهای آرام شگفتزده میشویم. اکنون آخرین فناوری پارادایمی ما، یادگیری ماشینی، ممکن است دنیای روزمره را بیشتر تصادفی نشان دهد به جای اینکه قوانینی حاکم بر آن باشد. اگر چنین است، به این دلیل است که یادگیری ماشینی قدرت معرفتی خود را از نبود انواع تعمیمهایی که ما انسانها درک کنیم یا به کار ببریم، به دست میآورد.عدم شفافیت سیستمهای یادگیری ماشین نگرانیهای جدیای را در مورد قابل اعتماد بودن و تمایل آنها به جانبداری ایجاد میکند. اما واقعیت وحشتناک این است که کارکردن آنها میتواند ما را به درک و تجربه جدیدی از چیستی جهان و نقش ما در آن برساند.یادگیری ماشین کاملاً متفاوت از برنامهنویسی سنتی است. در واقع، برنامههای سنتی نتیجهای از درک مبتنی بر قانون و مسیری از جهان و تجربه ما میباشد. یک مثال رایج از نمادی ترین نوع یادگیری ماشینی، نوشتن نرم افزاری است که اعداد دست نویس را تشخیص میدهد. برنامهنویس به طور سنتی به رایانه دستور می دهد که “1” به صورت یک خط راست قائم نوشته میشود، “8” شامل یک دایره کوچکتر روی یک دایره بزرگتر است و غیره. این میتواند به خوبی کار کند، اما اتکای آن به اعداد دستنویس ایدهآلهای افلاطونی به این معنی است که درصد نسبتا بالایی از آن توسط دستهای فانی در این ناحیه ناقص اشتباه شناسایی میشود. مدلهای یادگیری ماشینی در عوض برنامههایی که از مثالها یاد میگیرند، هستند. برای ایجاد یک مدل یادگیری ماشینی برای تشخیص اعداد دستنویس، توسعهدهندگان چیزی در مورد آنچه ما انسانها در مورد شکل اعداد میدانیم به ماشین نمیگویند. در عوض، در یک رویکرد رایج، توسعهدهندگان تصاویری از هزاران نمونه از اعداد دستنویس که متفاوتند را به آن میدهند و هر کدام به عنوان عددی برچسبگذاری شدهاند. سپس سیستم به صورت الگوریتمی روابط آماری را بین پیکسلهایی که تصاویری یکسان دارند، کشف میکند. مجموعهای از پیکسلهایی که یک خط عمودی دارند احتمال”1″ بودن را اضافه میکند و احتمال “3” بودن آن را کاهش میدهند و غیره.
«ما نمیدانیم یادگیری ماشینی چگونه کار میکند!» صرفا میشنویم که این مدلها واقعاً کار میکنند.
در برنامههای یادگیری ماشینی در زندگی واقعی، تعداد پاسخهای ممکن میتواند بسیار بیشتر از ۱۰ رقم باشد، همچنین مقدار دادهها بسیار زیاد و همبستگیهای بین نقاط داده آنقدر پیچیده است که ما انسانها اغلب به سادگی نمیتوانیم آنها را درک کنیم. به عنوان مثال، متابولیسم انسان مجموعهای دیوانهوار پیچیده از فعل و انفعالات و اثرات وابسته به هم است. بنابراین، تصور کنید که یک سیستم یادگیری ماشینی که در پیشبینی نحوه واکنش سیستم بدن انسان به مجموعهای از علل خوب باشد، ایجاد شود. ما این مدل راDeepMetab مینامیم،این مدل تبدیل به مکانی میشود که پزشکان، محققان، افراد عادی در روزمره و افراد افسرده برای پرسیدن سوال، کشف ایدهها و بازی “چه می شد اگر؟” دربارهی ساختمان انسان از آن استفاده می کنند. DeepMetab به مهمترین منبع دانش در مورد بدن انسان تبدیل میشود، حتی اگر نتوانیم بفهمیم که چگونه خروجی خود را تولید میکند.هرچه بیشتر و بیشتر به مدلهای یادگیری ماشینی (MLM) مانند DeepMetab که نمیتوانیم آنها را بفهمیم وابسته میشویم، میتوانیم شروع به گفتن یکی از دو روایت به خود کنیم: روایت اول میگوید که توضیحناپذیری نقطه ضعفی است که ما اغلب باید با آن کنار بیاییم تا بتوانیم خروجی مفید و احتمالاتی را که MLM ها تولید میکنند به دست آوریم.· دومی میگوید که توضیح ناپذیری یک اشکال نیست، بلکه یک حقیقت است: MLMها کار میکنند زیرا در خواندن جهان بهتر از ما هستند: آنها بدون نگرانی از توضیح دادن خودشان به انسانها از ارتباط آماری دادههای بیشتر و دقیقتر از آنچه که سیستمهای دیگر میتوانند مدیریت کنند، نتیجه میگیرند. هر بار که یک شهروند یا تنظیم کننده نگران با ناامیدی قابل درکی فریاد میزند: «ما نمیدانیم یادگیری ماشینی چگونه کار میکند!»، میشنویم که این مدلها واقعاً کار میکنند. اگر مدلهای یادگیری ماشینی با کنار گذاشتن قواعد، اصول، قوانین و تعمیمهای قابل فهمی که پیچیدگی را با سادهسازی آن توضیح میدهد، کار میکند، ما با فریاد میگوییم «این کار میکند!» ما در زیر هارمونی کرهها صدای تق تق و رنده کردن تمام نکات و جزئیات را میبینیم که خود را در وابستگی متقابلشان بهعنوان واقعی نشان میدهند. موفقیت فناوری ما به ما میآموزد که جهان جعبه سیاه واقعی است.از ساعتهای ما گرفته تا ماشینهایمان، از دوربینها تا ترموستاتهایمان، یادگیری ماشینی در اکثر زندگی روزمره ما گنجانده شده است. از آن برای معرفی ویدیوها، تلاش برای شناسایی سخنان نفرتانگیز، هدایت وسایل نقلیه در سیارات دیگر، کنترل شیوع بیماریها استفاده میشود و همچنین برای مبارزه با کاهش بحران آب و هوا ضروری است. با اینکه ناقص است و میتواند سو گیری و جانبداریهای اجتماعی را تقویت کند، اما به هر حال به استفاده از آن ادامه میدهیم, زیرا کار میکند. اینکه یادگیری ماشینی همه این کارها را بدون اعمال قوانین برای جزئیات انجام میدهد، شگفت آور و حتی ناراحت کننده است. ما به قدری قوانین را بر جزئیات ترجیح میدهیم که به نظرمان احمقانهست که به یک سیستم یادگیری ماشینی مانند بازی Go بدون اینکه قوانین را به آن بگوییم و در عوض صدها هزار تابلو و حرکت برای تجزیه و تحلیل به آن بدهیم. اما اینگونه است که یادگیری ماشین به بهترین بازیکن Go در تاریخ تبدیل شده است. در واقع، وقتی توسعهدهندگان دادههای مربوط به یک حوزه را به سیستم میدهند، معمولاً به طور هدفمند آنچه را که در مورد روابط متقابل بین دادههای آن میدانیم، پنهان میکنند. به عنوان مثال، سیستم مراقبتهای بهداشتی MLM احتمالاً خود را بر روی نقاط داده از میلیونها پرونده بهداشتی که شامل اطلاعاتی در مورد وزن، سن، سابقه مصرف سیگار، فشار خون، ضربان قلب، بیماریهای قبلی، درمان و نتایج است، آموزش داده است. توسعهدهندگان به سیستم تعمیمهایی مانند این که علائم ،نشانهای از بیماریهای خاص هستند یا اینکه بیماریهایی را میتوان با داروهای خاص درمان کرد، نمیگویند، مگر گاهی اوقات بیمار آلرژی یا بیماری قلبی داشته باشد. ما به آن نمیگوییم که بین سیگار کشیدن و بیماریهای ریوی، یا بین )LDLلیپوپروتئینهای با چگالی کم یا “کلسترول بد”) و داروی سیمواستاتین یا بین ظرفیت ریه و سطح اکسیژن خون رابطه وجود دارد. فرآیند آموزش MLM از تعمیمها شروع نمیشود، معمولاً تعمیمها را خروجی نمیدهد و ممکن است تعمیمهایی قابل تفسیر در این بین وجود نداشته باشد.
مثل این است که تعجب کنید که چگونه اتومبیل شما در آن برخورد چند اتومبیل از آسیب جدی جلوگیری کرد.
در حال حاضر موهای پشت گردن افرادی که حتی کمی با یادگیری ماشینی آشنا هستند، سیخ شده است، زیرا یک مدل یادگیری ماشین دقیقاً با تعمیم دادهها ایجاد میشود. به عنوان مثال، اگر یک شناسه دستخط MLM از نمونههایی که به او یاد داده شده تعمیم نیابد، در دستهبندی کاراکترهایی که قبلاً ندیده، به شدت شکست میخورد. شکست در تعمیم، آن را به یک مدل بیفایده تبدیل می کند. از نظر فنی، بیش برازش داده شده (over fitted) است. اما ما در تعمیمهای MLM برخلاف تعمیمهای سنتی از تشریح جزئیات استفاده میکنیم. ما تعمیمهای سنتی را دوست داریم زیرا (الف) میتوانیم آنها را درک کنیم. (ب) آنها اغلب نتیجهگیریهای قیاسی را امکانپذیر میکنند. و (ج) میتوانیم آنها را برای جزئیات اعمال کنیم. اما (الف) تعمیمهای یک MLM همیشه قابل درک نیست. (ب) آنها آماری، احتمالاتی و در درجه اول استقرایی هستند. و (ج) به معنای واقعی و عملی، ما معمولاً نمیتوانیم تعمیمهای MLM را اعمال کنیم مگر با اجرای مدل یادگیری ماشینی که از آنها حاصل شده است. علاوه بر این، تعمیمهای یک MLM میتواند به طرز عجیبی خاص باشد: الگوی رگها در اسکن شبکیه چشم ممکن است نشان دهنده شروع آرتروز باشد، اما تنها در صورتی که 50 عامل متفاوت دیگر با مقادیر خاص در پرونده سلامت کلی وجود داشته باشد. مثل این است که تعجب کنید که چگونه اتومبیل شما در برخورد با چند اتومبیل از آسیب جدی جلوگیری کرد: اتومبیل باید بر بسیاری از «اگرها»، «وها» و «یاها» غلبه میکرد که این رویداد به یک قانون قابل فهم تقلیل نمییابد که شما بتوانید آن را بیان یا به طور منظم در موقعیت دیگری اعمال کنید. یا مانند یک معمای قتل است که تنها زمانی قاتل را نشان میدهد که سرنخها به گونهای قابل تعمیم و اعمال در پروندههای قتل آینده در کنار هم قرار نگرفته باشند. برخورد ما با MLM ها وجود کلیات، قوانین یا اصول را انکار نمیکند. بلکه کافی بودن آنها برای درک آنچه در جهان پیچیدهی ما اتفاق میافتد را انکار میکند. جزئیات احتمالی، که هر کدام بر دیگری تأثیر میگذارند، بر قدرت توضیحی قوانین غلبه میکنند و حتی اگر همه قوانین را بدانیم، این کار را انجام میدهند. به عنوان مثال، اگر شما قوانین حاکم بر جاذبه گرانشی، مقاومت هوا، جرم یک سکه و زمین را بدانید و اگر ارتفاعی که سکه از آن رها میشود هم بدانید، میتوانید زمان برخورد سکه با زمین را محاسبه کنید. این احتمالاً برای رسیدن به هدف عملی شما کافی خواهد بود. اما چارچوببندی سنتی غربی بر قدرت ساکن قوانین بیش از حد تأکید کرده است. برای اعمال کامل قوانین، ما باید هر عاملی را که بر سقوط تأثیر میگذارد، بدانیم، از جمله اینکه کدام کبوترها میخواهند جریان هوای اطراف سکه در حال غلتش را تغییر دهند و یا کشش گرانشی ستارگان دوردست که از همه جهات به طور همزمان آن را میکشد، چه تاثیری میگذارد. (یادتان آمد دنبالهدار دوردست را هم بگنجانید؟) برای اعمال قوانین با دقت کامل، باید دانش جامع و غیرممکن شیطانک لاپلاس از جهان را داشته باشیم. این انتقادی از پیگیری قوانین نه علمی و نه عمل علم است، که معمولاً تجربی و به اندازه کافی برای نیازهای ما دقیق است – حتی اگر درجه دقت عملگرایانه ممکن آنچه را که ما به عنوان نیاز خود میپذیریم، شکل دهد. اما باید تعجب کنیم که چرا ما در رفتارمان با جریان پر هرج و مرج رودخانه در غرب نتوانستیم دو برابر قدم برداریم. در آن اصول واقعی و ابدی نظم وجود دارد که آن را توضیح میدهد. چرا ترجیح هستیشناختی ما برای تغییر ناپذیر ازلی همیشه در حال چرخش حول آب و خاک است؟
یادگیری ماشینی ممکن است شیفتگی غرب نسبت به اطمینان از قطعیت را به عنوان نشانهای از دانش بشکند.
اینها موضوعاتی آشنا در تاریخ فلسفه و دین غرب هستند که بسیار فراتر از محدوده من است. اما به نظر میرسد که ما در بخش کوچکی مجذوب روشی شدهایم که قوانین ابدی جهان را به اندازهای ساده میکند که بتوانیم آن را درک و نتیجه آن را پیشبینی و کنترل کنیم. در عین حال، این قوانین ساده و اغلب زیبا، هرج و مرج جزییات را که نه فقط توسط قوانین، بلکه توسط وضعیت هر یک از موارد خاص تعیین میشود، از ما پنهان میکنند. اما اکنون ما یک فناوری پیشبینی و کنترل داریم که مستقیماً از تعاملات آشفتهی کوچک و همزمان کلیت ناشی میشود. این فناوری به ما تسلط بیشتری میدهد ولی در عوض قدرت درک کردن نمیدهد. موفقیت آن توجه ما را به آنچه از درک ما دور است جلب میکند.در عین حال، و به همان دلایل، یادگیری ماشینی ممکن است شیفتگی غرب نسبت به اطمینان از قطعیت را به عنوان نشانهای از دانش بشکند، زیرا نتایج یادگیری ماشینی احتمالی هستند. در واقع، اطمینان کامل از نتایج یک مدل یادگیری ماشینی دلیلی برای شک و تردید در مورد آن مدل است. خروجیهای یادگیری ماشینی، بهعنوان احتمالی، درصدی از عدم دقت را در خود دارند؛ یک گزاره احتمالی درست، عبارتی است که به درستی پیش بینی کند که چند بار اشتباه خواهد بود. اکنون مکانیسمهایی داریم که ما را با نیرویی از چرخشهای جزییات متصل در شبکههای نامفهوم و ظریف مبهوت میکنند، شاید دیگر آن چرخشهای آشفته را بهعنوان ظاهری که باید در آن نفوذ کرد، حذف نکنیم. شاید نفوذ ناپذیری تأثیر همه بر همه همان سنگی باشد که ساموئل جانسون برای رد ایدهآلیسم رادیکال اسقف برکلی انداخت. با این حال، این بار، سنگ در برابر این فرض غربی ما که تغییرناپذیرترین، عمومیترین و قابل دانستن است، عقبنشینی خواهد کرد. شاید ما پیچیدگی غیرقابل تصور سادهترین اتفاق را به عنوان چیزی که در نهایت واقعی است در نظر بگیریم. تقدم حوادث و حادثه. و ناکافی بودن 1.4 کیلوگرم مغز ما در برابر چالشی که ما در غرب برای آن در نظر گرفتهایم. و دنیای بیرحم و ناشناختهی ما که لبههای محورهای ادراک ما را کم میکند. اگر این اتفاق میافتد، به این دلیل است که اکنون میتوانیم به صدای جزئیات بیشتر از آنچه که میتوانیم بشماریم، توجه کنیم، که هر کدام یک سیگنال کوچک از بازخوانی نامفهوم جدید ما از جهان است – بازخوانیای که دانش مفید، شگفتانگیز و احتمالی را از تأثیر غیرقابل درک همه برهمه، همیشه و همیشه به دست میدهد.