تاریخ انتشار : شنبه ۱۸ آذر ۱۴۰۲ - ۲۰:۰۶
24 بازدید
کد خبر : 1446

رازهای مبهم هوش مصنوعی: هنوز کسی عملکرد دقیق آن را نفهمیده است

رازهای مبهم هوش مصنوعی: هنوز کسی عملکرد دقیق آن را نفهمیده است

چند هفته پیش، یک خودروی خودران عجیب و متفاوت در خیابانهای ساکت و آرام نیوجرسی آمریکا به حرکت درآمد. این خودرو، محصول تحقیقات شرکت انویدیا بود و با وجود شباهت‌هایی به سایر اتومبیل‌های خیابانی، کاملاً منحصر به فرد بود و سعی داشت نیروی هوش مصنوعی را به طرزی متفاوت به نمایش بگذارد. ماشین انویدیا، به

چند هفته پیش، یک خودروی خودران عجیب و متفاوت در خیابانهای ساکت و آرام نیوجرسی آمریکا به حرکت درآمد. این خودرو، محصول تحقیقات شرکت انویدیا بود و با وجود شباهت‌هایی به سایر اتومبیل‌های خیابانی، کاملاً منحصر به فرد بود و سعی داشت نیروی هوش مصنوعی را به طرزی متفاوت به نمایش بگذارد.

ماشین انویدیا، به دنبال دستورالعمل واحد از سوی یک مهندس یا برنامه‌نویس نمی‌رفت و به طور کامل بر اساس الگوریتمی عمل می‌کرد که به آن یاد داده شده بود با تماشای راننده، روش کار را یاد بگیرد. این خصوصیت منحصر به فرد ماشین، در حدیکه موفقیت آن را به نمایش گذاشت، همچنین می‌تواند موجب نگرانی شود، زیرا دقیقاً واضح نیست که ماشین تصمیمات خود را بر چه اساسی می‌گیرد. اطلاعات از سنسورهای ماشین به صورت مستقیم به یک شبکه عظیم از عصب‌های مصنوعی ارسال می‌شوند که داده‌ها را پردازش کرده و سپس فرامین لازم را برای هدایت، ترمز و سایر سیستم‌ها ارسال می‌کند.

رازهای مبهم هوش مصنوعی: هنوز کسی عملکرد دقیق آن را نفهمیده است

عملکرد این ماشین به نظر می‌آمد که با واکنش‌هایی که از یک راننده انتظار می‌رود، همخوانی دارد. اما اگر روزی رفتارهای غیرمنتظره ایجاد شود، مانند برخورد با درخت یا عبور از چراغ سبز، تشخیص دلیل این رفتارها ممکن است دشوار باشد. با توجه به دانش‌های امروز، تحلیل این سیستم به چالش کشیده می‌شود و حتی مهندسان آن ممکن است مشکلاتی در تفسیر دلایل این رفتارها داشته باشند. همچنین، امکان خواستن اطلاعات در مورد علت این رفتارها بدون یک روش روشن برای طراحی سیستمی که دلیل اعمالش را توضیح دهد، وجود ندارد.

این ماشین به یک مسئله اساسی در حوزه هوش مصنوعی اشاره می‌کند. تکنولوژی یادگیری عمیق در سال‌های اخیر در حل موفقیت‌آمیز و قدرتمند مشکلات مختلف اثرگذار بوده و به عنوان یک ابزار گسترده برای انجام وظایفی مانند افزودن توضیحات به عکس، تشخیص صدا و ترجمه زبان به کار رفته است.

حالا امیدواری است که این تکنولوژی بتواند به شکل قابل درک‌تری توسط خالقانش درک شود و اطمینان بیشتری برای کاربران فراهم آورد، به نحوی که تشخیص بیماری‌های خطرناک و اتخاذ تصمیمات تجاری پیچیده امکان‌پذیر باشد. اما این اتفاق تا زمانی رخ نخواهد داد که تکنولوژی‌های مانند یادگیری عمیق برای ارائه اطمینان بهتر به خالقانش درک‌پذیرتر شوند و مرحله تست و تجربه را به پایان برسانند.

رازهای مبهم هوش مصنوعی: هنوز کسی عملکرد دقیق آن را نفهمیده است

در حال حاضر، برای ارزیابی شخصی که میخواهد وام درخواست کند یا فردی که به عنوان کارمند جدید استخدام می‌شود، از الگوهای ریاضی پیشفرض استفاده می‌شود. اگر توانایی دسترسی به این الگوها و درک رویکردهای مرتبط با آن‌ها وجود داشته باشد، ممکن است بتوانیم به تشخیص استدلال‌های آنها بپردازیم. با این حال، بانک‌ها، نهادهای نظامی، کارفرمایان و سایر اشخاص در حال حاضر به سمت روش‌های پیچیده‌تر یادگیری ماشینی متمایل شده‌اند که این موضوع می‌تواند تصمیم‌گیری‌های خودکار آن‌ها را پیچیده‌تر از پیش کند.

یادگیری عمیق که اکنون رویکردی رایج تلقی می‌شود، یک الگوریتم متفاوت برای برنامه‌ریزی ماشین‌ها فراهم می‌کند. طبق گفته تامی جاکولا، استادی در MIT که در زمینه کاربردهای یادگیری ماشینی تحقیق می‌کند: این مشکل کنونی است و پیش‌بینی می‌شود که در آینده به اهمیت بیشتری خواهد رسید. بدون توجه به اینکه تصمیم‌گیری مرتبط با سرمایه‌گذاری، حوزه پزشکی یا حتی نظامی باشد، نیازی به تمرکز بر روی روش‌های آزمون جعبه‌سیاه نیست.

رازهای مبهم هوش مصنوعی: هنوز کسی عملکرد دقیق آن را نفهمیده است

بعضی اعتقاد دارند که دارای حقیم به بررسی و تحقیق درباره سیستم‌های هوش مصنوعی هستیم تا عملکرد آنها را درک کنیم. با توجه به این موضوع، پیش‌بینی می‌شود که اتحادیه اروپا احتمالاً از سال 2018 به بعد تمامی شرکت‌های اروپایی را ملزم کند که توضیحات لازم را درباره تصمیماتی که به خودکار شدن سیستم‌ها منتهی شده، به کاربران خود ارائه دهند.

البته ممکن است این اقدام حتی برای سیستم‌های ساده و سطحی مانند اپلیکیشن‌ها و وبسایت‌هایی که از یادگیری عمیق برای نمایش تبلیغات و پیشنهاد موسیقی به کاربران استفاده می‌کنند، عملی نباشد. به عبارت دیگر، کامپیوترهایی که این سرویس‌ها را ارائه می‌دهند، خودشان را برنامه‌ریزی کرده‌اند و این را به روشی انجام داده‌اند که قابل فهم نیست. جالب است بدانید حتی مهندسانی که این اپلیکیشن‌ها را توسعه داده‌اند هم توضیحات جامعی درباره رفتار آنها در اختیار ندارند.

این مساله سوالاتی ایجاد می‌کند که به حوزه‌هایی خارج از دسترس انسان اشاره دارند. با پیشرفت تکنولوژی، انسان ممکن است از آستانه‌هایی عبور کند که در آن سوی آن، هوش مصنوعی می‌تواند از اخلاقیات گذشته و تصمیماتی پیچیده‌تر اتخاذ کند.

البته مطمئناً است که انسان هرگز نمی‌تواند فرایندهای ذهنی خود را به درستی توضیح دهد، با این حال روش‌هایی را پیدا کرده‌ایم که از طریق آنها می‌توانیم به افراد مختلف اعتماد کرده و آنها را ارزیابی نماییم.

آینده تعاملات انسان با ماشین‌های هوشمند: چالش‌ها و امکانات آیا تجربه ما در برخورد با ماشین‌های هوشمند، که تفکر و تصمیم‌گیری آنها کاملاً متفاوت از انسان است، به یک تعامل مطلوب و موثر منجر خواهد شد؟ تا به حال، ماشین‌هایی که عملکرد آنها برای بشر قابل درک نباشد، وجود نداشته‌اند. اما با توجه به پیشرفت‌های اخیر، ارتباط ما با ماشین‌های هوشمند قادر به تولید تصمیمات غیرقابل پیش‌بینی و نفوذناپذیر خواهد بود؟ این چالش‌ها و امکانات آینده را بررسی می‌کنیم.

رازهای مبهم هوش مصنوعی: هنوز کسی عملکرد دقیق آن را نفهمیده است

در سال 2015، تیم تحقیقاتی در بیمارستان Mount Sinai نیویورک به استفاده از یادگیری عمیق بر روی دیتابیس حاوی اطلاعات گسترده پزشکی بیماران پرداخت. این داده ها شامل صدها متغیر از نتایج آزمایشات تا ویزیت های پزشکی بیماران بودند.

برنامه تحت عنوان Deep Patient، با آموزش بر روی داده های حاصل از حدود هفتصد هزار بیمار، بدون دستورالعمل تخصصی، توانست الگوهای پنهان در داده های بیمارستان را شناسایی کند. این الگوها به دقت بیشتری در تشخیص بیماری‌ها نظیر سرطان کبد به کار رفت.

Deep Patient به طور خیره‌کننده‌ای شروع اختلالات روانی نظیر شیزوفرنی را تشخیص داد، با اینکه پیش‌بینی این گونه بیماری‌ها برای روانپزشکان بسیار دشوار است. این توانایی خودکارانه این برنامه محققان را نیز تعجب‌زده نموده است و مشکلی هنوز در فهم دقیق این اتفاق وجود دارد.

امکان ساخت این مدل‌ها وجود دارد، اما دقیقاً نمی‌دانیم چگونه عمل می‌کنند

اگر بخواهیم تکنولوژی‌هایی مانند Deep Patient به پزشکان در تشخیص بیماری کمک کنند، در حالت ایده‌آل باید منطق و استدلال آنها را برای ارائه پیش‌بینی‌های دقیق در اختیار داشته باشند و این به اندازه کافی باید اعتماد به تشخیص صحیح و دلایل منطقی برای تغییر در نحوه درمان فراهم کند.

Joel Dudley با تأسف می‌گوید: “ما می‌توانیم این مدل‌ها را بسازیم اما دقیقاً نمی‌دانیم چطور کار می‌کنند.”

باید افزود که هوش مصنوعی هرگز به این صورت نبوده است. از ابتدا، دو مکتب فکری در مورد قابل درک بودن و قابل توضیح بودن آن وجود داشت. برخی معتقد بودند که بهتر است ماشین‌هایی بسازیم که با استناد به قوانین و منطق، استدلال کنند و فعالیت‌های درونی آنها برای هر فرد قابل درک باشد.

دیگران اما فکر می‌کردند که اگر این ماشین‌ها از بیولوژی الهام بگیرند و از طریق مشاهده و تجربه به دانش خود اضافه کنند، به راحتی‌تر از هوش استفاده خواهند کرد، و این به اصطلاح یعنی تحول تمام و کمال برنامه‌نویسی کامپیوتری.

رازهای مبهم هوش مصنوعی: هنوز کسی عملکرد دقیق آن را نفهمیده است

استفاده از تبدیل خودکار کاراکترهای دست‌نویس به فرم دیجیتال تا دهه 1990 میلادی ممکن شد

تا دهه 1990 میلادی، شبکه‌های عصبی موفق به خودکار سازی فرایند تبدیل کاراکترهای دست‌نویس به فرم دیجیتالی شدند. اما از اواسط همان دهه به بعد و پس از بهینه‌سازی‌های متعدد، شبکه‌های عصبی عظیم و عمیق توانایی‌های خود را در زمینه تشخیص و درک خودکار به نمایش گذاشتند. حالا یادگیری عمیق به عنوان ریشه اصلی شکوفایی هوش مصنوعی محسوب می‌شود و به کامپیوترها قدرتی ماوراءی می‌بخشد. این دستاورد قابلیت تشخیص کلمات در محاوره (حتی به خوبی از انسان) را در آنها ایجاد نموده است، کاری که کدنویسی آن به دلیل پیچیدگی و دشواری بسیار افتراقی است.

رازهای مبهم هوش مصنوعی: هنوز کسی عملکرد دقیق آن را نفهمیده است

یادگیری عمیق به کامپیوترها امکان دید کامپیوتری متفاوتی را می‌دهد و ترجمه ماشینی را به سطوح جدیدی از پیشرفته رسانده است. این تکنولوژی حالا در تصمیم‌گیری‌های اهم در علم پزشکی، حوزه مالی، تولید، و بسیاری دیگر به کار گرفته می‌شود.

اما عملکرد تکنولوژی‌های یادگیری ماشینی در مقایسه با هر سیستم کدنویسی شده با دست، حتی به نظر دانشمندان علوم کامپیوتر، ناشناخته و مبهم است.

با این حال، این به معنای این نیست که تکنیک‌های هوش مصنوعی آینده به همین اندازه غیرقابل شناخت خواهند بود، بلکه منظور این است که یادگیری عمیق به وضوح یک “جعبه سیاه” است.

به عبارت دیگر، نمی‌توان با نگاه به درون یک شبکه یادگیری عمیق، از عملکرد آن به دقت حدس زد. منطق و استدلال یک شبکه در طی عملکرد هزاران عصب سازگار قرار گرفته که درون لایه‌های متعدد و متصل به هم جا دارند.

نرون‌ها یا عصب‌های لایه نخست داده اولیه را دریافت می‌کنند (مثل تراکم پیکسل‌ها در یک تصویر) و سپس قبل از ارائه سیگنال تازه، یک عملیات محاسباتی انجام می‌دهند. سپس دیتای خروجی درون یک شبکه پیچیده به نرون‌های لایه بعدی منتقل می‌شود و این روند تا ایجاد یک خروجی کلی ادامه پیدا می‌کند.

علاوه بر این، فرآیند دیگری به نام پس‌انتشار وجود دارد که محاسبات صورت گرفته توسط یک نرون را دستکاری کرده و امکان تولید یک خروجی مطلوب را برای شبکه فراهم می‌کند.

لایه‌های متعدد درون یک شبکه عمیق امکان تشخیص مسائل در سطوح مختلف یک مفهوم را فراهم می‌کنند. به عنوان مثال، در یک سیستم طراحی شده برای شناسایی سگ‌ها، لایه‌های پایینی موارد ساده‌ای مانند رنگ را تشخیص می‌دهند و لایه‌های بالایی موارد پیچیده‌تری مانند حالت چشم‌ها یا موی بدن سگ را شناسایی می‌کنند و لایه بالاترین نیز تمامی این موارد را با هم با عنوان یک سگ تشخیص می‌دهد.

رازهای مبهم هوش مصنوعی: هنوز کسی عملکرد دقیق آن را نفهمیده است

این رویکرد را می‌توان در مورد ماشین‌های خودآموز نیز در نظر گرفت: صداهایی که کلمات زبان را تشکیل می‌دهند، حروف و کلمات سازنده جملات یک متن، و حتی حرکات مرتبط با فرمان‌هایی که در رانندگی باید انجام شوند.

تا به امروز، استراتژی‌های مبتکرانه‌ای در جهت تشخیص و توضیح جزئیات اتفاقات درون این سیستم‌ها به کار گرفته شده‌اند. در سال 2015 میلادی، محققان گوگل بهینه‌سازی‌هایی را در الگوریتم تشخیص تصویر مبتنی بر یادگیری عمیق خود اعمال کردند، به نحوی که الگوریتم نه تنها اشیاء درون تصاویر را تشخیص نمی‌داد بلکه آنها را تولید یا اصلاح می‌کرد.

این اقدام به کارگیری الگوریتم‌های معکوس را ممکن کرد و باعث شناسایی فاکتورهایی شد که برنامه برای شناسایی یک پرنده یا ساختمان به کار می‌برد.

با این حال، تصاویری که به این توسط پروژه DeepDream تولید شدند، بسیار عجیب بودند و به عنوان مثال اشکال مرتبط با موجوداتی غیرمعمولی مانند ابرها و گیاهان به وجود می‌آمد.

این تصاویر نشان دادند که یادگیری عمیق تا چه اندازه از درک انسان فاصله دارد. محققان گوگل نیز اشاره کردند که زمانی که الگوریتم‌های آن عکس‌هایی را از یک دمبل تولید کردند، همزمان تصویری از بازوی انسانی که آن دمبل را در دست داشت را نیز ساختند. در واقع، استدلال ماشین این بود که بازوی انسان بخشی از دمبل است.

دانشمندان به کمک ایده‌هایی از علم عصب‌شناسی و علوم شناختی، به پیشرفت‌های بیشتری دست یافتند. تیمی به رهبری جف کلان (از استادان دانشگاه Wyoming) با استفاده از نوعی هوش مصنوعی، شبکه‌های یادگیری عمیق را آزمایش کرد. در سال 2015 میلادی، این تیم نشان داد که برخی از عکس‌ها چطور می‌توانند چنین شبکه‌هایی را فریب دهند تا مفاهیمی را درک کنند که واقعیت ندارند. دلیل این امر در واقع این بود که سیستم به دنبال الگوهای سطح پایین و ساده می‌گشت.

یکی از همکاران کلان به نام جیسون یوسینسکی نیز ابزاری طراحی کرده بود که مانند یک کاوشگر درون مغز عمل می‌کرد. این ابزار در اصل هر نورونی را که در میانه شبکه قرار داشت را هدف قرار می‌داد و عکس‌هایی را جستجو می‌کرد که بیشتر از همه آن نورون را فعال می‌کردند.

به همین دلیل، تصاویر پیدا شده شکلی انتزاعی داشتند (مانند نمای امپرسیونیستی از یک اتوبوس مدرسه) و ماهیت مرموز توانمندی‌های ادراکی ماشین را به تصویر می‌کشیدند.

رازهای مبهم هوش مصنوعی: هنوز کسی عملکرد دقیق آن را نفهمیده است

رسیدن به درک جامعتری از تفکر هوش مصنوعی برای انسان چالش‌های بسیاری را به همراه دارد و متأسفانه برای دستیابی به این هدف، راه‌حل‌های ساده‌ای موجود نیست. به عبارت دیگر، برای تشخیص الگوهای سطح بالا و انجام تصمیم‌گیری‌های پیچیده، نیاز به تعامل محاسبات داخل یک شبکه عصبی عمیق داریم. اما چالش اصلی اینجاست که این محاسبات با یک دریای از توابع و متغیرهای ریاضی سر و کار دارند.

جاکولا در این باره می گوید:

در دفتر مجاور محل کار جاکولا، یکی از اعضای هیئت علمی دانشگاه MIT به نام رجینا بارزیلای زندگی می‌کند و قصد دارد از یادگیری ماشینی در حوزه علوم پزشکی بهره‌مند شود. حدود دو سال قبل، به او خبر دادند که مبتلا به سرطان سینه است. این تشخیص تنها به اندازه کافی برای او غم‌انگیز و عجیب بود، اما عجیب‌تر اینکه متوجه شد در زمینه تحقیقات آنکولوژی و درمان بیماری، هیچ گونه بهره‌وری از داده‌های پیشرفته و روش‌های مبتنی بر یادگیری ماشینی صورت نمی‌گیرد.

رازهای مبهم هوش مصنوعی: هنوز کسی عملکرد دقیق آن را نفهمیده است

او اظهار می‌کند که هوش مصنوعی دارای توانمندی بالقوه‌ای برای تحول علم پزشکی است و این به معنای نیاز به فراتر رفتن از سوابق پزشکی است. او به یک آینده تصوری می‌پردازد که در آن از داده‌های خام بیشتری که در حال حاضر کاربردی ندارند، بهره‌مند شود، به عنوان مثال، از داده‌های تصویربرداری یا پاتولوژی.

بعد از اتمام دوره درمانی خود، با تیمی از محققان، به توسعه سیستمی با قابلیت تحقیق و جستجو در گزارشات پاتولوژی پرداخت تا خصوصیات بالینی خاصی که محققان ممکن است به آن علاقمند باشند را شناسایی کند.

با این حال، او می‌دانست که سیستم باید استدلالات خود را ارائه دهد. بنابراین، همراه با جاکولا، یک گام دیگر به فرآیند توسعه‌اش افزود تا سیستم قادر به اقتباس و تشخیص الگوهای احتمالی از بیماری در کوچک‌ترین متون گزارشات شود.

آنها همچنین در حال توسعه نوعی الگوریتم یادگیری عمیق هستند که قادر به تشخیص علائم اولیه سرطان سینه در تصاویر ماموگرافی فرد باشد و امیدوارند که این ابتکار به سیستم خود امکان ارائه استدلالات مرتبط با تشخیص بیماری را بدهد.

چگونه می‌توان با ماشین‌هایی که به‌سادگی قابل درک و نفوذ نیستند، یک همزیستی مسالمت‌آمیز داشت؟

رازهای مبهم هوش مصنوعی: هنوز کسی عملکرد دقیق آن را نفهمیده است

در حال حاضر، ارتش آمریکا به میلیاردها دلار صرف پروژه‌هایی کرده است که از یادگیری ماشینی برای هدایت ماشین‌آلات و هواپیماهای جنگی، تشخیص اهداف و بررسی حجم اطلاعات استفاده می‌کنند. در این زمینه، کمترین فضایی برای ابهام در الگوریتم‌ها وجود دارد. دارپا 13 به رهبری دیوید گانینگ، یکی از مدیران ارشد دارپا، در حال حاضر روی پروژه‌های مرتبط با هوش مصنوعی که به خدمت‌گیری در زمینه پزشکی اختصاص دارند، فعالیت می‌کند.

گانینگ می‌گوید: “اتوماسیون در حال نفوذ به حوزه‌های گوناگونی از زندگی ماست.” تحلیلگران اطلاعاتی نیز در حال حاضر به تست یادگیری ماشینی برای تشخیص الگوها در حجم اطلاعات نظارتی مشغولند. اما واضح است که در مواجهه با سیستم‌های یادگیری ماشینی، سوالاتی پیش می‌آید که باید به آن پاسخ داده شود. برخی از این پروژه‌ها با تاکید بر کارهای پروفسور کارلوس گاسترین از دانشگاه واشنگتن انجام شده‌اند.

ایشان به همراه تیم خود راهی را پیدا کرده‌اند که سیستم‌های یادگیری ماشینی قادر به استدلال و ارائه توضیحات جامع در رابطه با خروجی‌های کارشان باشند. این روش به این صورت عمل می‌کند که کامپیوتر به صورت خودکار مثال‌هایی از یک مجموعه داده پیدا کرده و آنها را به شکل توضیح مختصر و کوتاه ارائه می‌دهد.

این رویکرد، در حوزه طبقه‌بندی ایمیل‌های دریافتی از یک تروریست مثال قابل اجراست و در جریان آموزش و تصمیم‌گیری، میلیون‌ها پیام نمونه را مورد استفاده قرار می‌دهد. با این حال، ایراداتی نیز وارد می‌شود که ممکن است باعث ساده‌سازی اطلاعات کلیدی شود.

در ماه‌های اخیر، دارپا 13 پروژه‌هایی را انتخاب کرده که برخی از آنها توسط پروفسور کارلوس گاسترین از دانشگاه واشنگتن انجام شده‌اند. این پروژه‌ها به سیستم‌های تشخیص تصویر و تحلیل گران تصویر اختصاص دارند که می‌توانند با هایلایت کردن بخش‌های مهم‌تر تصویر، توضیحات کوتاهی را در مورد علت تصمیمات خود ا

رائه دهند.

گاسترین در این باره تأکید دارد: “رنگ واقعیت هنوز در رویاهای ما جا نگرفته و هوش مصنوعی برای محاوره با انسان و ارائه توضیحات جامع هنوز مسیر طولانی‌ای را پیش رو دارد.”

تا ایجاد یک هوش مصنوعی قابل درک هنوز راه درازی در پیش است

البته ضرورت رسیدن به این نقطه ای صرفا به خاطر استفاده از هوش مصنوعی در بخش هایی نظیر تشخیص سرطان نیست و اگر بنا باشد که تکنولوژی به بخشی همیشگی در زندگی روزمره مان بدل شود لازم است که چنین اتفاقی رخ بدهد.

تام گروبر که تیم سیری در اپل را هدایت کرده در این باره می گوید:

توانایی ارائه توضیحات برای تیم من اهمیت بالایی دارد زیرا به لطف آن سیری باهوش تر از قبل خواهد شد و به یک دستیار مجازی قابل اتکا بدل می گردد.

البته وی از ارائه توضیحات و جزئیات بیشتر در این باره خودداری کرد اما روشن است که درآینده چنانچه پیشنهاد خاصی در مورد یک رستوران را از سیری دریافت کنید حتما تمایل دارید که دلایلش برای این منظور را بدانید.

اما درست همانطور که بسیاری جنبه های وجودی انسان غیرقابل توضیح هستند، این احتمال هم می رود که هوش مصنوعی نتواند علت انجام بسیاری فعالیت هایش را توضیح دهد.

Ruslan Salakhutdinov مدیر تحقیقات هوش مصنوعی اپل و از استادیاران دانشگاه کارنگی ملون در این باره می گوید:

حتی اگر فردی توضیحاتی به نظر منطقی را در رابطه با کردارش به شما ارائه دهد باز هم آن توضیحات ناکامل به نظر می آیند و همین مساله هم در مورد هوش مصنوعی صادق خواهد بود

برچسب ها :

ناموجود
ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : 0
  • نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
  • نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.