رازهای مبهم هوش مصنوعی: هنوز کسی عملکرد دقیق آن را نفهمیده است
چند هفته پیش، یک خودروی خودران عجیب و متفاوت در خیابانهای ساکت و آرام نیوجرسی آمریکا به حرکت درآمد. این خودرو، محصول تحقیقات شرکت انویدیا بود و با وجود شباهتهایی به سایر اتومبیلهای خیابانی، کاملاً منحصر به فرد بود و سعی داشت نیروی هوش مصنوعی را به طرزی متفاوت به نمایش بگذارد. ماشین انویدیا، به
چند هفته پیش، یک خودروی خودران عجیب و متفاوت در خیابانهای ساکت و آرام نیوجرسی آمریکا به حرکت درآمد. این خودرو، محصول تحقیقات شرکت انویدیا بود و با وجود شباهتهایی به سایر اتومبیلهای خیابانی، کاملاً منحصر به فرد بود و سعی داشت نیروی هوش مصنوعی را به طرزی متفاوت به نمایش بگذارد.
ماشین انویدیا، به دنبال دستورالعمل واحد از سوی یک مهندس یا برنامهنویس نمیرفت و به طور کامل بر اساس الگوریتمی عمل میکرد که به آن یاد داده شده بود با تماشای راننده، روش کار را یاد بگیرد. این خصوصیت منحصر به فرد ماشین، در حدیکه موفقیت آن را به نمایش گذاشت، همچنین میتواند موجب نگرانی شود، زیرا دقیقاً واضح نیست که ماشین تصمیمات خود را بر چه اساسی میگیرد. اطلاعات از سنسورهای ماشین به صورت مستقیم به یک شبکه عظیم از عصبهای مصنوعی ارسال میشوند که دادهها را پردازش کرده و سپس فرامین لازم را برای هدایت، ترمز و سایر سیستمها ارسال میکند.
عملکرد این ماشین به نظر میآمد که با واکنشهایی که از یک راننده انتظار میرود، همخوانی دارد. اما اگر روزی رفتارهای غیرمنتظره ایجاد شود، مانند برخورد با درخت یا عبور از چراغ سبز، تشخیص دلیل این رفتارها ممکن است دشوار باشد. با توجه به دانشهای امروز، تحلیل این سیستم به چالش کشیده میشود و حتی مهندسان آن ممکن است مشکلاتی در تفسیر دلایل این رفتارها داشته باشند. همچنین، امکان خواستن اطلاعات در مورد علت این رفتارها بدون یک روش روشن برای طراحی سیستمی که دلیل اعمالش را توضیح دهد، وجود ندارد.
این ماشین به یک مسئله اساسی در حوزه هوش مصنوعی اشاره میکند. تکنولوژی یادگیری عمیق در سالهای اخیر در حل موفقیتآمیز و قدرتمند مشکلات مختلف اثرگذار بوده و به عنوان یک ابزار گسترده برای انجام وظایفی مانند افزودن توضیحات به عکس، تشخیص صدا و ترجمه زبان به کار رفته است.
حالا امیدواری است که این تکنولوژی بتواند به شکل قابل درکتری توسط خالقانش درک شود و اطمینان بیشتری برای کاربران فراهم آورد، به نحوی که تشخیص بیماریهای خطرناک و اتخاذ تصمیمات تجاری پیچیده امکانپذیر باشد. اما این اتفاق تا زمانی رخ نخواهد داد که تکنولوژیهای مانند یادگیری عمیق برای ارائه اطمینان بهتر به خالقانش درکپذیرتر شوند و مرحله تست و تجربه را به پایان برسانند.
در حال حاضر، برای ارزیابی شخصی که میخواهد وام درخواست کند یا فردی که به عنوان کارمند جدید استخدام میشود، از الگوهای ریاضی پیشفرض استفاده میشود. اگر توانایی دسترسی به این الگوها و درک رویکردهای مرتبط با آنها وجود داشته باشد، ممکن است بتوانیم به تشخیص استدلالهای آنها بپردازیم. با این حال، بانکها، نهادهای نظامی، کارفرمایان و سایر اشخاص در حال حاضر به سمت روشهای پیچیدهتر یادگیری ماشینی متمایل شدهاند که این موضوع میتواند تصمیمگیریهای خودکار آنها را پیچیدهتر از پیش کند.
یادگیری عمیق که اکنون رویکردی رایج تلقی میشود، یک الگوریتم متفاوت برای برنامهریزی ماشینها فراهم میکند. طبق گفته تامی جاکولا، استادی در MIT که در زمینه کاربردهای یادگیری ماشینی تحقیق میکند: این مشکل کنونی است و پیشبینی میشود که در آینده به اهمیت بیشتری خواهد رسید. بدون توجه به اینکه تصمیمگیری مرتبط با سرمایهگذاری، حوزه پزشکی یا حتی نظامی باشد، نیازی به تمرکز بر روی روشهای آزمون جعبهسیاه نیست.
بعضی اعتقاد دارند که دارای حقیم به بررسی و تحقیق درباره سیستمهای هوش مصنوعی هستیم تا عملکرد آنها را درک کنیم. با توجه به این موضوع، پیشبینی میشود که اتحادیه اروپا احتمالاً از سال 2018 به بعد تمامی شرکتهای اروپایی را ملزم کند که توضیحات لازم را درباره تصمیماتی که به خودکار شدن سیستمها منتهی شده، به کاربران خود ارائه دهند.
البته ممکن است این اقدام حتی برای سیستمهای ساده و سطحی مانند اپلیکیشنها و وبسایتهایی که از یادگیری عمیق برای نمایش تبلیغات و پیشنهاد موسیقی به کاربران استفاده میکنند، عملی نباشد. به عبارت دیگر، کامپیوترهایی که این سرویسها را ارائه میدهند، خودشان را برنامهریزی کردهاند و این را به روشی انجام دادهاند که قابل فهم نیست. جالب است بدانید حتی مهندسانی که این اپلیکیشنها را توسعه دادهاند هم توضیحات جامعی درباره رفتار آنها در اختیار ندارند.
این مساله سوالاتی ایجاد میکند که به حوزههایی خارج از دسترس انسان اشاره دارند. با پیشرفت تکنولوژی، انسان ممکن است از آستانههایی عبور کند که در آن سوی آن، هوش مصنوعی میتواند از اخلاقیات گذشته و تصمیماتی پیچیدهتر اتخاذ کند.
البته مطمئناً است که انسان هرگز نمیتواند فرایندهای ذهنی خود را به درستی توضیح دهد، با این حال روشهایی را پیدا کردهایم که از طریق آنها میتوانیم به افراد مختلف اعتماد کرده و آنها را ارزیابی نماییم.
آینده تعاملات انسان با ماشینهای هوشمند: چالشها و امکانات آیا تجربه ما در برخورد با ماشینهای هوشمند، که تفکر و تصمیمگیری آنها کاملاً متفاوت از انسان است، به یک تعامل مطلوب و موثر منجر خواهد شد؟ تا به حال، ماشینهایی که عملکرد آنها برای بشر قابل درک نباشد، وجود نداشتهاند. اما با توجه به پیشرفتهای اخیر، ارتباط ما با ماشینهای هوشمند قادر به تولید تصمیمات غیرقابل پیشبینی و نفوذناپذیر خواهد بود؟ این چالشها و امکانات آینده را بررسی میکنیم.
در سال 2015، تیم تحقیقاتی در بیمارستان Mount Sinai نیویورک به استفاده از یادگیری عمیق بر روی دیتابیس حاوی اطلاعات گسترده پزشکی بیماران پرداخت. این داده ها شامل صدها متغیر از نتایج آزمایشات تا ویزیت های پزشکی بیماران بودند.
برنامه تحت عنوان Deep Patient، با آموزش بر روی داده های حاصل از حدود هفتصد هزار بیمار، بدون دستورالعمل تخصصی، توانست الگوهای پنهان در داده های بیمارستان را شناسایی کند. این الگوها به دقت بیشتری در تشخیص بیماریها نظیر سرطان کبد به کار رفت.
Deep Patient به طور خیرهکنندهای شروع اختلالات روانی نظیر شیزوفرنی را تشخیص داد، با اینکه پیشبینی این گونه بیماریها برای روانپزشکان بسیار دشوار است. این توانایی خودکارانه این برنامه محققان را نیز تعجبزده نموده است و مشکلی هنوز در فهم دقیق این اتفاق وجود دارد.
امکان ساخت این مدلها وجود دارد، اما دقیقاً نمیدانیم چگونه عمل میکنند
اگر بخواهیم تکنولوژیهایی مانند Deep Patient به پزشکان در تشخیص بیماری کمک کنند، در حالت ایدهآل باید منطق و استدلال آنها را برای ارائه پیشبینیهای دقیق در اختیار داشته باشند و این به اندازه کافی باید اعتماد به تشخیص صحیح و دلایل منطقی برای تغییر در نحوه درمان فراهم کند.
Joel Dudley با تأسف میگوید: “ما میتوانیم این مدلها را بسازیم اما دقیقاً نمیدانیم چطور کار میکنند.”
باید افزود که هوش مصنوعی هرگز به این صورت نبوده است. از ابتدا، دو مکتب فکری در مورد قابل درک بودن و قابل توضیح بودن آن وجود داشت. برخی معتقد بودند که بهتر است ماشینهایی بسازیم که با استناد به قوانین و منطق، استدلال کنند و فعالیتهای درونی آنها برای هر فرد قابل درک باشد.
دیگران اما فکر میکردند که اگر این ماشینها از بیولوژی الهام بگیرند و از طریق مشاهده و تجربه به دانش خود اضافه کنند، به راحتیتر از هوش استفاده خواهند کرد، و این به اصطلاح یعنی تحول تمام و کمال برنامهنویسی کامپیوتری.
استفاده از تبدیل خودکار کاراکترهای دستنویس به فرم دیجیتال تا دهه 1990 میلادی ممکن شد
تا دهه 1990 میلادی، شبکههای عصبی موفق به خودکار سازی فرایند تبدیل کاراکترهای دستنویس به فرم دیجیتالی شدند. اما از اواسط همان دهه به بعد و پس از بهینهسازیهای متعدد، شبکههای عصبی عظیم و عمیق تواناییهای خود را در زمینه تشخیص و درک خودکار به نمایش گذاشتند. حالا یادگیری عمیق به عنوان ریشه اصلی شکوفایی هوش مصنوعی محسوب میشود و به کامپیوترها قدرتی ماوراءی میبخشد. این دستاورد قابلیت تشخیص کلمات در محاوره (حتی به خوبی از انسان) را در آنها ایجاد نموده است، کاری که کدنویسی آن به دلیل پیچیدگی و دشواری بسیار افتراقی است.
یادگیری عمیق به کامپیوترها امکان دید کامپیوتری متفاوتی را میدهد و ترجمه ماشینی را به سطوح جدیدی از پیشرفته رسانده است. این تکنولوژی حالا در تصمیمگیریهای اهم در علم پزشکی، حوزه مالی، تولید، و بسیاری دیگر به کار گرفته میشود.
اما عملکرد تکنولوژیهای یادگیری ماشینی در مقایسه با هر سیستم کدنویسی شده با دست، حتی به نظر دانشمندان علوم کامپیوتر، ناشناخته و مبهم است.
با این حال، این به معنای این نیست که تکنیکهای هوش مصنوعی آینده به همین اندازه غیرقابل شناخت خواهند بود، بلکه منظور این است که یادگیری عمیق به وضوح یک “جعبه سیاه” است.
به عبارت دیگر، نمیتوان با نگاه به درون یک شبکه یادگیری عمیق، از عملکرد آن به دقت حدس زد. منطق و استدلال یک شبکه در طی عملکرد هزاران عصب سازگار قرار گرفته که درون لایههای متعدد و متصل به هم جا دارند.
نرونها یا عصبهای لایه نخست داده اولیه را دریافت میکنند (مثل تراکم پیکسلها در یک تصویر) و سپس قبل از ارائه سیگنال تازه، یک عملیات محاسباتی انجام میدهند. سپس دیتای خروجی درون یک شبکه پیچیده به نرونهای لایه بعدی منتقل میشود و این روند تا ایجاد یک خروجی کلی ادامه پیدا میکند.
علاوه بر این، فرآیند دیگری به نام پسانتشار وجود دارد که محاسبات صورت گرفته توسط یک نرون را دستکاری کرده و امکان تولید یک خروجی مطلوب را برای شبکه فراهم میکند.
لایههای متعدد درون یک شبکه عمیق امکان تشخیص مسائل در سطوح مختلف یک مفهوم را فراهم میکنند. به عنوان مثال، در یک سیستم طراحی شده برای شناسایی سگها، لایههای پایینی موارد سادهای مانند رنگ را تشخیص میدهند و لایههای بالایی موارد پیچیدهتری مانند حالت چشمها یا موی بدن سگ را شناسایی میکنند و لایه بالاترین نیز تمامی این موارد را با هم با عنوان یک سگ تشخیص میدهد.
این رویکرد را میتوان در مورد ماشینهای خودآموز نیز در نظر گرفت: صداهایی که کلمات زبان را تشکیل میدهند، حروف و کلمات سازنده جملات یک متن، و حتی حرکات مرتبط با فرمانهایی که در رانندگی باید انجام شوند.
تا به امروز، استراتژیهای مبتکرانهای در جهت تشخیص و توضیح جزئیات اتفاقات درون این سیستمها به کار گرفته شدهاند. در سال 2015 میلادی، محققان گوگل بهینهسازیهایی را در الگوریتم تشخیص تصویر مبتنی بر یادگیری عمیق خود اعمال کردند، به نحوی که الگوریتم نه تنها اشیاء درون تصاویر را تشخیص نمیداد بلکه آنها را تولید یا اصلاح میکرد.
این اقدام به کارگیری الگوریتمهای معکوس را ممکن کرد و باعث شناسایی فاکتورهایی شد که برنامه برای شناسایی یک پرنده یا ساختمان به کار میبرد.
با این حال، تصاویری که به این توسط پروژه DeepDream تولید شدند، بسیار عجیب بودند و به عنوان مثال اشکال مرتبط با موجوداتی غیرمعمولی مانند ابرها و گیاهان به وجود میآمد.
این تصاویر نشان دادند که یادگیری عمیق تا چه اندازه از درک انسان فاصله دارد. محققان گوگل نیز اشاره کردند که زمانی که الگوریتمهای آن عکسهایی را از یک دمبل تولید کردند، همزمان تصویری از بازوی انسانی که آن دمبل را در دست داشت را نیز ساختند. در واقع، استدلال ماشین این بود که بازوی انسان بخشی از دمبل است.
دانشمندان به کمک ایدههایی از علم عصبشناسی و علوم شناختی، به پیشرفتهای بیشتری دست یافتند. تیمی به رهبری جف کلان (از استادان دانشگاه Wyoming) با استفاده از نوعی هوش مصنوعی، شبکههای یادگیری عمیق را آزمایش کرد. در سال 2015 میلادی، این تیم نشان داد که برخی از عکسها چطور میتوانند چنین شبکههایی را فریب دهند تا مفاهیمی را درک کنند که واقعیت ندارند. دلیل این امر در واقع این بود که سیستم به دنبال الگوهای سطح پایین و ساده میگشت.
یکی از همکاران کلان به نام جیسون یوسینسکی نیز ابزاری طراحی کرده بود که مانند یک کاوشگر درون مغز عمل میکرد. این ابزار در اصل هر نورونی را که در میانه شبکه قرار داشت را هدف قرار میداد و عکسهایی را جستجو میکرد که بیشتر از همه آن نورون را فعال میکردند.
به همین دلیل، تصاویر پیدا شده شکلی انتزاعی داشتند (مانند نمای امپرسیونیستی از یک اتوبوس مدرسه) و ماهیت مرموز توانمندیهای ادراکی ماشین را به تصویر میکشیدند.
رسیدن به درک جامعتری از تفکر هوش مصنوعی برای انسان چالشهای بسیاری را به همراه دارد و متأسفانه برای دستیابی به این هدف، راهحلهای سادهای موجود نیست. به عبارت دیگر، برای تشخیص الگوهای سطح بالا و انجام تصمیمگیریهای پیچیده، نیاز به تعامل محاسبات داخل یک شبکه عصبی عمیق داریم. اما چالش اصلی اینجاست که این محاسبات با یک دریای از توابع و متغیرهای ریاضی سر و کار دارند.
جاکولا در این باره می گوید:
در دفتر مجاور محل کار جاکولا، یکی از اعضای هیئت علمی دانشگاه MIT به نام رجینا بارزیلای زندگی میکند و قصد دارد از یادگیری ماشینی در حوزه علوم پزشکی بهرهمند شود. حدود دو سال قبل، به او خبر دادند که مبتلا به سرطان سینه است. این تشخیص تنها به اندازه کافی برای او غمانگیز و عجیب بود، اما عجیبتر اینکه متوجه شد در زمینه تحقیقات آنکولوژی و درمان بیماری، هیچ گونه بهرهوری از دادههای پیشرفته و روشهای مبتنی بر یادگیری ماشینی صورت نمیگیرد.
او اظهار میکند که هوش مصنوعی دارای توانمندی بالقوهای برای تحول علم پزشکی است و این به معنای نیاز به فراتر رفتن از سوابق پزشکی است. او به یک آینده تصوری میپردازد که در آن از دادههای خام بیشتری که در حال حاضر کاربردی ندارند، بهرهمند شود، به عنوان مثال، از دادههای تصویربرداری یا پاتولوژی.
بعد از اتمام دوره درمانی خود، با تیمی از محققان، به توسعه سیستمی با قابلیت تحقیق و جستجو در گزارشات پاتولوژی پرداخت تا خصوصیات بالینی خاصی که محققان ممکن است به آن علاقمند باشند را شناسایی کند.
با این حال، او میدانست که سیستم باید استدلالات خود را ارائه دهد. بنابراین، همراه با جاکولا، یک گام دیگر به فرآیند توسعهاش افزود تا سیستم قادر به اقتباس و تشخیص الگوهای احتمالی از بیماری در کوچکترین متون گزارشات شود.
آنها همچنین در حال توسعه نوعی الگوریتم یادگیری عمیق هستند که قادر به تشخیص علائم اولیه سرطان سینه در تصاویر ماموگرافی فرد باشد و امیدوارند که این ابتکار به سیستم خود امکان ارائه استدلالات مرتبط با تشخیص بیماری را بدهد.
چگونه میتوان با ماشینهایی که بهسادگی قابل درک و نفوذ نیستند، یک همزیستی مسالمتآمیز داشت؟
در حال حاضر، ارتش آمریکا به میلیاردها دلار صرف پروژههایی کرده است که از یادگیری ماشینی برای هدایت ماشینآلات و هواپیماهای جنگی، تشخیص اهداف و بررسی حجم اطلاعات استفاده میکنند. در این زمینه، کمترین فضایی برای ابهام در الگوریتمها وجود دارد. دارپا 13 به رهبری دیوید گانینگ، یکی از مدیران ارشد دارپا، در حال حاضر روی پروژههای مرتبط با هوش مصنوعی که به خدمتگیری در زمینه پزشکی اختصاص دارند، فعالیت میکند.
گانینگ میگوید: “اتوماسیون در حال نفوذ به حوزههای گوناگونی از زندگی ماست.” تحلیلگران اطلاعاتی نیز در حال حاضر به تست یادگیری ماشینی برای تشخیص الگوها در حجم اطلاعات نظارتی مشغولند. اما واضح است که در مواجهه با سیستمهای یادگیری ماشینی، سوالاتی پیش میآید که باید به آن پاسخ داده شود. برخی از این پروژهها با تاکید بر کارهای پروفسور کارلوس گاسترین از دانشگاه واشنگتن انجام شدهاند.
ایشان به همراه تیم خود راهی را پیدا کردهاند که سیستمهای یادگیری ماشینی قادر به استدلال و ارائه توضیحات جامع در رابطه با خروجیهای کارشان باشند. این روش به این صورت عمل میکند که کامپیوتر به صورت خودکار مثالهایی از یک مجموعه داده پیدا کرده و آنها را به شکل توضیح مختصر و کوتاه ارائه میدهد.
این رویکرد، در حوزه طبقهبندی ایمیلهای دریافتی از یک تروریست مثال قابل اجراست و در جریان آموزش و تصمیمگیری، میلیونها پیام نمونه را مورد استفاده قرار میدهد. با این حال، ایراداتی نیز وارد میشود که ممکن است باعث سادهسازی اطلاعات کلیدی شود.
در ماههای اخیر، دارپا 13 پروژههایی را انتخاب کرده که برخی از آنها توسط پروفسور کارلوس گاسترین از دانشگاه واشنگتن انجام شدهاند. این پروژهها به سیستمهای تشخیص تصویر و تحلیل گران تصویر اختصاص دارند که میتوانند با هایلایت کردن بخشهای مهمتر تصویر، توضیحات کوتاهی را در مورد علت تصمیمات خود ا
رائه دهند.
گاسترین در این باره تأکید دارد: “رنگ واقعیت هنوز در رویاهای ما جا نگرفته و هوش مصنوعی برای محاوره با انسان و ارائه توضیحات جامع هنوز مسیر طولانیای را پیش رو دارد.”
تا ایجاد یک هوش مصنوعی قابل درک هنوز راه درازی در پیش است
البته ضرورت رسیدن به این نقطه ای صرفا به خاطر استفاده از هوش مصنوعی در بخش هایی نظیر تشخیص سرطان نیست و اگر بنا باشد که تکنولوژی به بخشی همیشگی در زندگی روزمره مان بدل شود لازم است که چنین اتفاقی رخ بدهد.
تام گروبر که تیم سیری در اپل را هدایت کرده در این باره می گوید:
توانایی ارائه توضیحات برای تیم من اهمیت بالایی دارد زیرا به لطف آن سیری باهوش تر از قبل خواهد شد و به یک دستیار مجازی قابل اتکا بدل می گردد.
البته وی از ارائه توضیحات و جزئیات بیشتر در این باره خودداری کرد اما روشن است که درآینده چنانچه پیشنهاد خاصی در مورد یک رستوران را از سیری دریافت کنید حتما تمایل دارید که دلایلش برای این منظور را بدانید.
اما درست همانطور که بسیاری جنبه های وجودی انسان غیرقابل توضیح هستند، این احتمال هم می رود که هوش مصنوعی نتواند علت انجام بسیاری فعالیت هایش را توضیح دهد.
Ruslan Salakhutdinov مدیر تحقیقات هوش مصنوعی اپل و از استادیاران دانشگاه کارنگی ملون در این باره می گوید:
حتی اگر فردی توضیحاتی به نظر منطقی را در رابطه با کردارش به شما ارائه دهد باز هم آن توضیحات ناکامل به نظر می آیند و همین مساله هم در مورد هوش مصنوعی صادق خواهد بود
برچسب ها :
ناموجود- نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
- نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
- نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.
ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : 0