هوش مصنوعی، عبارتی است که این روزها مدام درباره آن می‌شنویم و تقریباً هر لحظه رویدادی جدیدی در این عرصه در حال شکل‌گیری است. اما تا به حال شده از خود بپرسید که فرایندهای تصمیم‌گیری هوش مصنوعی چگونه است و چطور به یک نتیجه نهایی می‌رسد؟ آیا می‌توان چیزی از این روند پیچیده فهمید؟ احتمالاً اولین پاسختان بحث یادگیری ماشین و استفاده الگوریتم‌های پیچیده است، که البته پاسخ درستی است، اما جواب کاملی برای این پرسش‌ها نیست. هوش مصنوعی قابل توضیح رویکرد و ابزاری است که می‌توان برای پاسخ به این پرسش‌ها مطرح کرد.

اما هوش مصنوعی قابل توصیف چیست و چرا اهمیت ویژه‌ای برای کسب‌وکارها دارد؟ آیا ما با یک نسل جدید از هوش‌های مصنوعی طرف هستیم یا اینکه هوش مصنوعی قابل تبیین (XAI) پروسه‌ای به منظور درک بهتر رفتار ماشبن‌هاست؟ برای اینکه به این پرسش‌ها پاسخ دهیم و ببینیم منظور از هوش مصنوعی قابل توضیح چیست از شما دعوت می‌کنیم تا انتهای این مقاله ما را همراهی کنید.

هوش مصنوعی قابل توضیح یا Explainable AI چیست؟

هوش مصنوعی قابل توضیح که به شکل اختصاری XAI نوشته می‌شود، به فرآیندی برای درک و توضیح تصمیمات یک مدل و توسعه هوش‌های مصنوعی مطمئن‌تر برای انسان‌ها گفته می‌شود. XAI می‌تواند به توسعه‌دهندگان یادگیری ماشین (ML) و دانشمندان در حوزه داده کمک کند تا رفتار مدل‌ها را بهتر درک و تفسیر کنند. چالش بزرگ برای سیستم‌های یادگیری ماشین این است که اثربخشی آن‌ها در برنامه‌های کاربردی به دلیل ناتوانی در توضیح تصمیمات و اقدامات، دچار محدودیت شده است.

فراموش نکنیم که هوش مصنوعی کاربردهای فراوانی در دنیای امروز دارد و بسیاری از صنایع مهم امروزی مانند امور مالی، حقوقی، نظامی، حمل و نقل، امنیت و پزشکی از این ابزار قدرتمند استفاده می‌کنند.

هوش مصنوعی قابل توضیح

هوش مصنوعی قابل توضیح برای توصیف یک مدل هوش مصنوعی، تأثیرات مورد انتظار و سوگیری‌های بالقوه آن استفاده می‌شود. یکی از دلایلی که مفهوم توضیح پذیری (Explainability) در حوزه ماشین لرنگینگ از اهمیت ویژه‌ای برخوردار بوده این است که از زیرشاخه‌‌های مهم در هوش مصنوعی مسئولیت پذیر (Responsible AI) محسوب می‌شود. احتمالاً کمی گیج‌کننده به نظر می‌رسد، اما اجازه دهید تا به شیوه‌ای ساده ارتباط این دو را توضیح دهیم.

منظور از رسپانسیبل ای آی روش و رویکردی برای اطمینان از اقدامات هوش مصنوعی و ممانعت از سوگیری‌های ناعادلانه است. به عبارت ساده‌تر هدف از این رویکرد به کارگیری هوش مصنوعی به شیوه‌ای ایمن، قابل اعتماد و اخلاقی است و از آنجا که مفهوم توضیح پذیری یکی از راه‌های تضمین انصاف و عدالت است (چرا که می‌توانیم بفهمیم به چه علت چنین تصمیمی گرفته شده است)، بنابراین از این لحاظ می‌توان رابطه بین هوش مصنوعی توضیحی و هوش مصنوعی مسئولیت‌پذیر را شرح داد.

درک و فهمیدن دلایل پشت پرده پیش‌بینی‌های یک هوش مصنوعی می‌تواند منجر به ایجاد سازوکاری برای برخورد و رفتاری منصفانه با کاربران شود. به عنوان مثال، توضیح اینکه چرا یک هوش مصنوعی برای کشف تقلب، تراکنشی خاص را با عنوان جعلی برچسب‌گذاری می‌کند، می‌تواند ما را بیشتر با چگونگی این روند آشنا کند. چنین موضوعی برای بسیاری از کسب‌وکارهای مرتبط با هوش مصنوعی امری ضروری تلقی می‌شود.

جالب است بدانید یکی از این حوزه‌ها، صنعت پزشکی است. هوش مصنوعی مدتی است که در این عرصه فعالیتش را آغاز کرده و در تشخیص مواردی مانند سرطان، بیماری‌های نادر، مغز و اعصاب و بسیاری از زمینه‌های دیگر به پزشکان کمک کرده است. با این حال این صنعت نیز به دلیل پچیدگی‌های ساختاریش و موضوع مرگ و زندگی انسان‌ها به هوش مصنوعی قابل توضیح نیاز دارد.

احتمالاً می‌پرسید چرا به یک هوش مصنوعی توصیفی در چنین بخشی نیاز است؟ پاسخ این سؤال را می‌توان در چگونگی تشخیص بیماری‌ها جست‌وجو کرد. بدین معنا که پزشکان می‌توانند به وسیله XAI با نحوه استدلال، تشخیص و تصمیمات هوش مصنوعی به شکلی شفاف‌تر آشنا شوند و در صورت لزوم تغییراتی را در این ارتباط ایجاد کنند. نیاز به هوش مصنوعی توضیحی تنها مختص به پزشکی نبوده و در علوم داده، یادگیری ماشین و شفافیت در طراحی و آموزش مدل‌ها نیز از اهمیت فوق العاده‌ای برخوردار است.

مدتی است که هوش مصنوعی توضیح پذیر به یکی از موضوعات ترند و پرطرفدار گوگل تبدیل شده است و دلیل منطقی نیز در این ارتباط وجود دارد. علت مهم مسئه این است که کاربران و به خصوص سازمان‌ها و صنایعی که با هوش مصنوعی تعامل دارند به دنبال تولید مدل‌های جدید هوش مصنوعی به شکلی مطمئن‌تر و قابل فهم‌تر هستند و به همین دلیل شناخت XAI و استفاده از این رویکرد در صدر توجهات قرار گرفته است.

هوش مصنوعی قابل توضیح یک مفهوم گسترده و تقریباً پیچیده بوده و بسته به این که چه کسی در چه جایگاه و صنعتی با AI تعامل دارد، می‌تواند متفاوت باشد. به عنوان مثال، مدیری که به سرمایه‌گذاری‌های هوش مصنوعی نگاه می‌کند، توضیح پذیری را شامل شفافیت یا مسئولیت‌پذیری با دقت بالا می‌داند. این در حالی است که خواسته یک پزشک یا دانشمند علوم داده از هوش مصنوعی توضیح پذیر متفاوت است.

منظور از جعبه سیاه یا Black Box در هوش مصنوعی چیست؟

پیش از آنکه به بخش‌های دیگر این مقاله بپردازیم بد نیست اصطلاحی با نام جعیه سیاه یا Black Box را شرح دهیم که در حوزه AI بسیار اهمیت داشته و هوش مصنوعی قابل توضیح نیز در همین راستا پدید آمده است. جعبه‌ سیاه هوش مصنوعی، به بخش از سیستم‌ AI اطلاق می‌شود که عملکردش از دید کاربران پنهان است. در حالی که کاربران می‌توانند داده‌ها را وارد کرده و خروجی مورد نظرشان را بگیرند، اما نمی‌توانند به سازوکار یا منطق پشت فرآیند تصمیم‌گیری و تولید داده‌های خروجی دسترسی داشته باشند.

به طور کلی یادگیری ماشین از سه جزء کلی تشکیل شده است: الگوریتم‌ها، داده‌های آموزشی و مدل‌ها. الگوریتم‌ها الگوها را از داده‌های آموزشی یاد می‌گیرند و نتیجه مدلی است که کاربران با آن تعامل دارند. با این حال، هر یک از این اجزا را می‌توان در یک جعبه سیاه پنهان کرد، به طوری که کسی نتواند درباره چگونگی به دست آمدن نتایج چیزی متوجه شود.

نقطه مقابل جعبه سیاه مفهومی با نام جعبه شیشه‌ای است. در این مدل الگوریتم‌ها، داده‌های آموزشی و مدل‌ها به شکل شفاف و در دسترس هستند و تقریباً چیز پنهان و پوشیده‌ای وجود ندارد. با این حال، حتی هوش‌های مصنوعی که از سازوکار جعبه شیشه‌ای استفاده می‌کنند هم می‌توانند جنبه‌هایی داشته باشند که به‌طور کامل توسط محققان درک نشوند.

اهمیت جعبه سیاه هوش مصنوعی به ویژه در زمینه‌هایی مانند مراقبت‌های پزشکی که پیش‌تر به آن اشاره‌ای داشتیم و امور مالی همواره مورد بحث بوده است. درک عملکرد درونی مدل‌های هوش مصنوعی برای اعتماد و مسئولیت‌پذیری بسیار مهم است. به عنوان مثال، اگر یک مدل هوش مصنوعی تشخیص دهد فردی واجد شرایط گرفتن وام است، برای کاربران مهم است که بدانند دلیل این تصمیم چیست و چگونه محقق شده است.

بنابراین می‌توان گفت یکی از اصلی‌ترین دلایل پیدایش هوش مصنوعی قابل توضیح ایجاد شفافیت در مدل‌های مبتنی بر جعبه سیاه و در نهایت توسعه الگوریتم‌هایی است که برای انسان قابل درک‌تر باشد، است. حتی اگر نتوان هوش مصنوعی را ایجاد کرد که از جنبه‌های گوناگون کاملاً شفاف و آشکار باشد، حداقل می‌توان اعتماد و پاسخگویی در AIها را افزایش داد و آسیب‌پذیری‌ها و باگ‌های موجود در سیستم‌های هوش مصنوعی را پیش از بروز یک حادثه یا واقعه‌ای ناگوار شناسایی کرد.

اهمیت هوش مصنوعی قابل توضیح

اشاره کردیم که همه مدل‌های AI شفاف یا قابل توضیح نیستند، برخی از مدل‌ها پیچیده و غیرشفاف هستند، به این معنی که عملکرد درونیشان پنهان بوده یا تفسیر آن‌ها برای انسان بسیار دشوار است؛ این که یک انسان بتواند بفهمد چرا و چگونه هوش مصنوعی به یک نتیجه خاص رسیده است موضوعی مهم است. شاید در حالت کلی و زمانی که از منظری کلی به این قضیه نگاه کنیم شفافیت یا دانستن سازوکار هوش مصنوعی موضوع چندان مهمی نباشد اما این نبود شفافیت زمانی که بر سلامت انسان یا حقوق مادی و معنوی آن‌ها تأثیرگذار باشد، رنگ‌و‌بویی مهم به خود می‌گیرد.

XAI در حقیقت راهی برای شفاف‌تر کردن و پاسخگویی بیشتر هوش مصنوعی است. هدف هوش مصنوعی توصیفی ارائه توضیحات واضح و قابل درک از نحوه عملکرد یک مدل هوش مصنوعی و عواملی است که بر خروجی آن تأثیر می‌گذارد این که بدانیم هوش مصنوعی چه سوگیری‌ها یا محدودیت‌هایی ممکن است داشته باشد، اهمیت فراوانی دارد.

هوش مصنوعی توصیفی می‌تواند به انسان‌ها کمک کند تا سیستم‌های مورد استفاده خود را بهتر بشناسند و بر تصمیمات آن نظارت کنند. در عین حال XAI می‌تواند با ارائه بازخورد، راهنمایی و بینش متفاوت به انسان‌ها کمک کند تا به طور مؤثرتری با هوش مصنوعی تعامل داشته باشند. اشاره کردیم که هوش مصنوعی قابل تبیین (XAI) از جنبه‌های مختلفی اهمیت دارد، اکنون به شکل مفصل‌تری به این دلایل می‌پردازیم.

دلیل اول اینکه XAI می‌تواند اعتماد و اطمینان به هوش مصنوعی را افزایش دهد. وقتی انسان‌ها بتوانند بفهمند یک سیستم هوش مصنوعی چگونه و چطور کار می‌کند، احتمال بیشتری دارد که آن را بپذیرند و از آن استفاده کنند.

کاربردهای هوش مصنوعی قابل توضیح

این می‌تواند پذیرش و راه‌حل‌های هوش مصنوعی را در حوزه‌های مختلف را بهبود بخشد. دوم این که، هوش مصنوعی توضیح پذیر می‌تواند اخلاق و انصاف را در مدل‌های هوش مصنوعی افزایش دهد. وقتی انسان‌ها قادر باشند منطق و داده‌های پشت پرده تصمیم‌های یک سیستم هوش مصنوعی را بررسی کنند، می‌توانند خطاها، سوگیری‌ها یا تبعیض‌هایی را که ممکن است رخ دهد، شناسایی و تصحیح کنند.

این مورد هم می‌تواند تضمین کند که سیستم‌های مبتنی بر هوش مصنوعی به ارزش‌ها و اصول انسانی مانند حریم خصوصی، مسئولیت‌پذیری یا عدالت پایبند باشند. سومین دلیل این است که XAI می‌تواند نوآوری و خلاقیت را در مدل‌های هوش مصنوعی تقویت کند. وقتی انسان‌ها بتوانند استدلال و رفتار یک سیستم هوش مصنوعی را بررسی و تحلیل کنند، می‌توانند از آن درس گرفته و نواقص آن را بهبود بخشند. این می‌تواند منجر به اکتشافات و کاربردهای جدید AI شود که در نهایت به نفع جامعه خواهد بود،

وجود XAI زمانی اهمیت دوچندان پیدا می‌کند که از سیستم‌های هوش مصنوعی برای کارهای پرمخاطره یا حساس استفاده می‌شود؛ کارهایی که می‌تواند پیامدهای قابل‌توجهی برای انسان یا محیط زیست داشته باشد. به این ترتیب با استفاده از هوش مصنوعی توصیفی کاربران می‌توانند از صحت داده‌های خروجی سیستم مطمئن شوند، خطرات و مشکلات موجود را درک کنند و انتخاب‌ها یا اقدامات آگاهانه‌تری انجام دهند.
استفاده از هوش مصنوعی قابل توضیح یک چالش فنی نیست بلکه مسئولیتی اجتماعی است که باید از همین امروز به فکر استفاده‌اش باشیم. همان‌طور که هوش مصنوعی در جامعه ما فراگیرتر و قدرتمندتر می‌شود، باید اطمینان حاصل کنیم که نه تنها این ابزار هوشمند‌تر می‌شود، بلکه باید از قابل اعتماد بودن آن نیز مطمئن باشیم. با بهره‌گیری از XAI  می‌توانیم انسان‌ها را برای کنترل، همکاری و بهره‌برداری ایمن و اخلاقی از هوش مصنوعی توانمندتر کنیم.

نقاط قوت هوش مصنوعی قابل توصیف

  • یافتن معیارهای خاصی که یک AI برای رسیدن به تصمیمی از آن‌ها استفاده می‌کند.
  • یافتن چرایی اینکه چگونه یک برنامه در مقابل گزینه‌های مختلف تنها یک مورد مشخص را انتخاب می‌کند.
  • افزایش سطح اعتماد برای واگذاری انواع تصمیمات به هوش مصنوعی.
  • یافتن ایرادات احتمالی و اینکه هوش مصنوعی مورد استفاده مستعد چه نوع خطاهایی است.
  • یافتن راهی برای اصلاح خطاها و باگ‌های موجود.
  • افزایش اعتماد به هوش مصنوعی.

کاربردهای هوش مصنوعی توضیح پذیر

  • مراقبت های پزشکی: سیستم‌های هوش مصنوعی قابل توضیح که به تشخیص  مشکلات بیماران کمک می‌کنند، می‌توانند به ایجاد اعتماد بین پزشک و سیستم تشخیصی کمک کنند، چرا که پزشک می‌تواند بفهمد از چه طریف و بر اساس چه استدلالی به این نتیجه یا تشخیص رسیده است.
  • امور مالی: XAI برای تأیید یا رد ادعاهای مالی مانند وام یا درخواست های رهنی و همچنین برای کشف تقلب مالی می‌تواند مورد استفاده قرار گیرد.
  • امور نظامی: سیستم‌های مبتنی بر هوش مصنوعی نظامی باید قابل توضیح باشند تا بین افراد و تجهیزاتی که برای ایمنی به آن‌ها تکیه می‌کنند، اعتماد ایجاد کند.
  • وسایل نقلیه خودران: هوش مصنوعی قابل توضیح در وسایل نقلیه خودران برای ارائه توضیح درباره تصمیمات مبتنی بر رانندگی، به ویژه تصمیماتی که حول محور ایمنی می‌چرخند، استفاده می‌شود. اگر مسافر بتواند بفهمد که چگونه و چرا وسیله نقلیه تصمیمات رانندگی خود را می گیرد، با دانستن اینکه وسیله نقلیه چه سناریوهایی را می‌تواند یا نمی‌تواند تحلیل کند، آگاهی و احساس امنیت بیشتری می‌کند.

مزایای هوش مصنوعی قابل تبیین (XAI)

XAI به طور کلی مسئولیت پذیری و شفافیت بیشتری را در سیستم های هوش مصنوعی فراهم کرده و هوش مصنوعی را قابل اعتمادتر می‌کند. افراد ممکن است تمایلی به اعتماد به یک سیستم مبتنی بر هوش مصنوعی نداشته باشند، زیرا نمی توانند تشخیص دهند که این سیستم چگونه به چنین نتیجه‌ای خاص رسیده است. XAI برای ارائه توضیحات قابل درک از تصمیمات خود به کاربران طراحی شده است.
وجود یک هوش مصنوعی قابل توضیح چهارچوب‌های کلی یک سیستم مبتنی بر AI را بهبود می‌بخشد. با شفافیت بیشتر، توسعه‌دهندگان می‌توانند به راحتی مشکلات را شناسایی و برطرف کنند.

هوش مصنوعی قابل توضیح چیست
وجود یک XAI می‌تواند بینش و دقت سیستم را در مواجهه با حملات سایبری افزایش دهد. در برخی از این نوع حملات سعی می‌شود با استفاده از داده‌های ورودی که به طور مخرب طراحی شده‌اند، یک مدل را فریب دهند یا آن را به سمت تصمیمی نادرست سوق دهند. احتمال موفقیت چنین حملاتی در برابر سیستم‌هایی که از هوش مصنوعی قابل توضیح بهره می‌برند به مراتب کمتر از یک سیستم سنتی هوش مصنوعی خواهد بود.

محدودیت‌های هوش مصنوعی قابل توضیح

  • بازدهی پایین: مدل‌های مبتنی بر XAI معمولاً در مقایسه با مدل‌های مرسوم هوش مصنوعی یا به اصطلاح آن‌هایی که از جعبه سیاه استفاده می‌کنند، عملکرد پایین‌تری دارند.
  • مشکل در آموزش: ایجاد یک سیستم هوش مصنوعی که استدلال خود را نیز توضیح دهد، در مقایسه با مدل‌های جعبه سیاه، بسیار پیچیده‌تر است.
  • حریم خصوصی: اگر یک هوش مصنوعی قابل توصیف با داده‌های محرمانه کار کند، این داده‌ها ممکن است به دلیل ماهیت شفاف XAI افشا شده و در معرض سوء استفاده قرار گیرند.

سخن پایانی

وقتی صحبت از پیش‌بینی‌‌های مبتنی بر یادگیری ماشینی می‌شود، برای کاربران و صاحبان صنایعی که از هوش مصنوعی استفاده می‌کنند مهم است که بدانند چنین مدل‌هایی چگونه و چرا تصمیم‌های مشخصی می‌گیرند. برای سازمان‌هایی که بخشی از کارشان مرتبط با AI بوده و با جان و سرمایه انسان‌ها سروکار دارند درک کامل از فرآیندهای تصمیم‌گیری و عدم اعتماد کورکورانه به مدل‌های سنتی اهمیت فراوانی دارد. در این مقطع است که برای رفع چالش‌های پیش‌رو هوش مصنوعی قابل توضیح وارد عمل شده و شرایط را تغییر می‌دهد.

هوش مصنوعی قابل توصیف می‌تواند به انسان‌ها در درک و توضیح الگوریتم‌های پیچیده یادگیری ماشین، یادگیری عمیق و شبکه‌های عصبی کمک کند. این فرایند یکی از الزامات کلیدی برای پیاده‌سازی یک هوش مصنوعی مسئول است.

تهیه شده در بیت ۲۴