آنچه در این مقاله خواهید خواند
اما هوش مصنوعی قابل توصیف چیست و چرا اهمیت ویژهای برای کسبوکارها دارد؟ آیا ما با یک نسل جدید از هوشهای مصنوعی طرف هستیم یا اینکه هوش مصنوعی قابل تبیین (XAI) پروسهای به منظور درک بهتر رفتار ماشبنهاست؟ برای اینکه به این پرسشها پاسخ دهیم و ببینیم منظور از هوش مصنوعی قابل توضیح چیست از شما دعوت میکنیم تا انتهای این مقاله ما را همراهی کنید.
هوش مصنوعی قابل توضیح یا Explainable AI چیست؟
هوش مصنوعی قابل توضیح که به شکل اختصاری XAI نوشته میشود، به فرآیندی برای درک و توضیح تصمیمات یک مدل و توسعه هوشهای مصنوعی مطمئنتر برای انسانها گفته میشود. XAI میتواند به توسعهدهندگان یادگیری ماشین (ML) و دانشمندان در حوزه داده کمک کند تا رفتار مدلها را بهتر درک و تفسیر کنند. چالش بزرگ برای سیستمهای یادگیری ماشین این است که اثربخشی آنها در برنامههای کاربردی به دلیل ناتوانی در توضیح تصمیمات و اقدامات، دچار محدودیت شده است.
فراموش نکنیم که هوش مصنوعی کاربردهای فراوانی در دنیای امروز دارد و بسیاری از صنایع مهم امروزی مانند امور مالی، حقوقی، نظامی، حمل و نقل، امنیت و پزشکی از این ابزار قدرتمند استفاده میکنند.
هوش مصنوعی قابل توضیح برای توصیف یک مدل هوش مصنوعی، تأثیرات مورد انتظار و سوگیریهای بالقوه آن استفاده میشود. یکی از دلایلی که مفهوم توضیح پذیری (Explainability) در حوزه ماشین لرنگینگ از اهمیت ویژهای برخوردار بوده این است که از زیرشاخههای مهم در هوش مصنوعی مسئولیت پذیر (Responsible AI) محسوب میشود. احتمالاً کمی گیجکننده به نظر میرسد، اما اجازه دهید تا به شیوهای ساده ارتباط این دو را توضیح دهیم.
منظور از رسپانسیبل ای آی روش و رویکردی برای اطمینان از اقدامات هوش مصنوعی و ممانعت از سوگیریهای ناعادلانه است. به عبارت سادهتر هدف از این رویکرد به کارگیری هوش مصنوعی به شیوهای ایمن، قابل اعتماد و اخلاقی است و از آنجا که مفهوم توضیح پذیری یکی از راههای تضمین انصاف و عدالت است (چرا که میتوانیم بفهمیم به چه علت چنین تصمیمی گرفته شده است)، بنابراین از این لحاظ میتوان رابطه بین هوش مصنوعی توضیحی و هوش مصنوعی مسئولیتپذیر را شرح داد.
درک و فهمیدن دلایل پشت پرده پیشبینیهای یک هوش مصنوعی میتواند منجر به ایجاد سازوکاری برای برخورد و رفتاری منصفانه با کاربران شود. به عنوان مثال، توضیح اینکه چرا یک هوش مصنوعی برای کشف تقلب، تراکنشی خاص را با عنوان جعلی برچسبگذاری میکند، میتواند ما را بیشتر با چگونگی این روند آشنا کند. چنین موضوعی برای بسیاری از کسبوکارهای مرتبط با هوش مصنوعی امری ضروری تلقی میشود.
جالب است بدانید یکی از این حوزهها، صنعت پزشکی است. هوش مصنوعی مدتی است که در این عرصه فعالیتش را آغاز کرده و در تشخیص مواردی مانند سرطان، بیماریهای نادر، مغز و اعصاب و بسیاری از زمینههای دیگر به پزشکان کمک کرده است. با این حال این صنعت نیز به دلیل پچیدگیهای ساختاریش و موضوع مرگ و زندگی انسانها به هوش مصنوعی قابل توضیح نیاز دارد.
احتمالاً میپرسید چرا به یک هوش مصنوعی توصیفی در چنین بخشی نیاز است؟ پاسخ این سؤال را میتوان در چگونگی تشخیص بیماریها جستوجو کرد. بدین معنا که پزشکان میتوانند به وسیله XAI با نحوه استدلال، تشخیص و تصمیمات هوش مصنوعی به شکلی شفافتر آشنا شوند و در صورت لزوم تغییراتی را در این ارتباط ایجاد کنند. نیاز به هوش مصنوعی توضیحی تنها مختص به پزشکی نبوده و در علوم داده، یادگیری ماشین و شفافیت در طراحی و آموزش مدلها نیز از اهمیت فوق العادهای برخوردار است.
مدتی است که هوش مصنوعی توضیح پذیر به یکی از موضوعات ترند و پرطرفدار گوگل تبدیل شده است و دلیل منطقی نیز در این ارتباط وجود دارد. علت مهم مسئه این است که کاربران و به خصوص سازمانها و صنایعی که با هوش مصنوعی تعامل دارند به دنبال تولید مدلهای جدید هوش مصنوعی به شکلی مطمئنتر و قابل فهمتر هستند و به همین دلیل شناخت XAI و استفاده از این رویکرد در صدر توجهات قرار گرفته است.
هوش مصنوعی قابل توضیح یک مفهوم گسترده و تقریباً پیچیده بوده و بسته به این که چه کسی در چه جایگاه و صنعتی با AI تعامل دارد، میتواند متفاوت باشد. به عنوان مثال، مدیری که به سرمایهگذاریهای هوش مصنوعی نگاه میکند، توضیح پذیری را شامل شفافیت یا مسئولیتپذیری با دقت بالا میداند. این در حالی است که خواسته یک پزشک یا دانشمند علوم داده از هوش مصنوعی توضیح پذیر متفاوت است.
منظور از جعبه سیاه یا Black Box در هوش مصنوعی چیست؟
پیش از آنکه به بخشهای دیگر این مقاله بپردازیم بد نیست اصطلاحی با نام جعیه سیاه یا Black Box را شرح دهیم که در حوزه AI بسیار اهمیت داشته و هوش مصنوعی قابل توضیح نیز در همین راستا پدید آمده است. جعبه سیاه هوش مصنوعی، به بخش از سیستم AI اطلاق میشود که عملکردش از دید کاربران پنهان است. در حالی که کاربران میتوانند دادهها را وارد کرده و خروجی مورد نظرشان را بگیرند، اما نمیتوانند به سازوکار یا منطق پشت فرآیند تصمیمگیری و تولید دادههای خروجی دسترسی داشته باشند.
به طور کلی یادگیری ماشین از سه جزء کلی تشکیل شده است: الگوریتمها، دادههای آموزشی و مدلها. الگوریتمها الگوها را از دادههای آموزشی یاد میگیرند و نتیجه مدلی است که کاربران با آن تعامل دارند. با این حال، هر یک از این اجزا را میتوان در یک جعبه سیاه پنهان کرد، به طوری که کسی نتواند درباره چگونگی به دست آمدن نتایج چیزی متوجه شود.
نقطه مقابل جعبه سیاه مفهومی با نام جعبه شیشهای است. در این مدل الگوریتمها، دادههای آموزشی و مدلها به شکل شفاف و در دسترس هستند و تقریباً چیز پنهان و پوشیدهای وجود ندارد. با این حال، حتی هوشهای مصنوعی که از سازوکار جعبه شیشهای استفاده میکنند هم میتوانند جنبههایی داشته باشند که بهطور کامل توسط محققان درک نشوند.
اهمیت جعبه سیاه هوش مصنوعی به ویژه در زمینههایی مانند مراقبتهای پزشکی که پیشتر به آن اشارهای داشتیم و امور مالی همواره مورد بحث بوده است. درک عملکرد درونی مدلهای هوش مصنوعی برای اعتماد و مسئولیتپذیری بسیار مهم است. به عنوان مثال، اگر یک مدل هوش مصنوعی تشخیص دهد فردی واجد شرایط گرفتن وام است، برای کاربران مهم است که بدانند دلیل این تصمیم چیست و چگونه محقق شده است.
بنابراین میتوان گفت یکی از اصلیترین دلایل پیدایش هوش مصنوعی قابل توضیح ایجاد شفافیت در مدلهای مبتنی بر جعبه سیاه و در نهایت توسعه الگوریتمهایی است که برای انسان قابل درکتر باشد، است. حتی اگر نتوان هوش مصنوعی را ایجاد کرد که از جنبههای گوناگون کاملاً شفاف و آشکار باشد، حداقل میتوان اعتماد و پاسخگویی در AIها را افزایش داد و آسیبپذیریها و باگهای موجود در سیستمهای هوش مصنوعی را پیش از بروز یک حادثه یا واقعهای ناگوار شناسایی کرد.
اهمیت هوش مصنوعی قابل توضیح
اشاره کردیم که همه مدلهای AI شفاف یا قابل توضیح نیستند، برخی از مدلها پیچیده و غیرشفاف هستند، به این معنی که عملکرد درونیشان پنهان بوده یا تفسیر آنها برای انسان بسیار دشوار است؛ این که یک انسان بتواند بفهمد چرا و چگونه هوش مصنوعی به یک نتیجه خاص رسیده است موضوعی مهم است. شاید در حالت کلی و زمانی که از منظری کلی به این قضیه نگاه کنیم شفافیت یا دانستن سازوکار هوش مصنوعی موضوع چندان مهمی نباشد اما این نبود شفافیت زمانی که بر سلامت انسان یا حقوق مادی و معنوی آنها تأثیرگذار باشد، رنگوبویی مهم به خود میگیرد.
XAI در حقیقت راهی برای شفافتر کردن و پاسخگویی بیشتر هوش مصنوعی است. هدف هوش مصنوعی توصیفی ارائه توضیحات واضح و قابل درک از نحوه عملکرد یک مدل هوش مصنوعی و عواملی است که بر خروجی آن تأثیر میگذارد این که بدانیم هوش مصنوعی چه سوگیریها یا محدودیتهایی ممکن است داشته باشد، اهمیت فراوانی دارد.
هوش مصنوعی توصیفی میتواند به انسانها کمک کند تا سیستمهای مورد استفاده خود را بهتر بشناسند و بر تصمیمات آن نظارت کنند. در عین حال XAI میتواند با ارائه بازخورد، راهنمایی و بینش متفاوت به انسانها کمک کند تا به طور مؤثرتری با هوش مصنوعی تعامل داشته باشند. اشاره کردیم که هوش مصنوعی قابل تبیین (XAI) از جنبههای مختلفی اهمیت دارد، اکنون به شکل مفصلتری به این دلایل میپردازیم.
دلیل اول اینکه XAI میتواند اعتماد و اطمینان به هوش مصنوعی را افزایش دهد. وقتی انسانها بتوانند بفهمند یک سیستم هوش مصنوعی چگونه و چطور کار میکند، احتمال بیشتری دارد که آن را بپذیرند و از آن استفاده کنند.
این میتواند پذیرش و راهحلهای هوش مصنوعی را در حوزههای مختلف را بهبود بخشد. دوم این که، هوش مصنوعی توضیح پذیر میتواند اخلاق و انصاف را در مدلهای هوش مصنوعی افزایش دهد. وقتی انسانها قادر باشند منطق و دادههای پشت پرده تصمیمهای یک سیستم هوش مصنوعی را بررسی کنند، میتوانند خطاها، سوگیریها یا تبعیضهایی را که ممکن است رخ دهد، شناسایی و تصحیح کنند.
این مورد هم میتواند تضمین کند که سیستمهای مبتنی بر هوش مصنوعی به ارزشها و اصول انسانی مانند حریم خصوصی، مسئولیتپذیری یا عدالت پایبند باشند. سومین دلیل این است که XAI میتواند نوآوری و خلاقیت را در مدلهای هوش مصنوعی تقویت کند. وقتی انسانها بتوانند استدلال و رفتار یک سیستم هوش مصنوعی را بررسی و تحلیل کنند، میتوانند از آن درس گرفته و نواقص آن را بهبود بخشند. این میتواند منجر به اکتشافات و کاربردهای جدید AI شود که در نهایت به نفع جامعه خواهد بود،
وجود XAI زمانی اهمیت دوچندان پیدا میکند که از سیستمهای هوش مصنوعی برای کارهای پرمخاطره یا حساس استفاده میشود؛ کارهایی که میتواند پیامدهای قابلتوجهی برای انسان یا محیط زیست داشته باشد. به این ترتیب با استفاده از هوش مصنوعی توصیفی کاربران میتوانند از صحت دادههای خروجی سیستم مطمئن شوند، خطرات و مشکلات موجود را درک کنند و انتخابها یا اقدامات آگاهانهتری انجام دهند.
استفاده از هوش مصنوعی قابل توضیح یک چالش فنی نیست بلکه مسئولیتی اجتماعی است که باید از همین امروز به فکر استفادهاش باشیم. همانطور که هوش مصنوعی در جامعه ما فراگیرتر و قدرتمندتر میشود، باید اطمینان حاصل کنیم که نه تنها این ابزار هوشمندتر میشود، بلکه باید از قابل اعتماد بودن آن نیز مطمئن باشیم. با بهرهگیری از XAI میتوانیم انسانها را برای کنترل، همکاری و بهرهبرداری ایمن و اخلاقی از هوش مصنوعی توانمندتر کنیم.
نقاط قوت هوش مصنوعی قابل توصیف
- یافتن معیارهای خاصی که یک AI برای رسیدن به تصمیمی از آنها استفاده میکند.
- یافتن چرایی اینکه چگونه یک برنامه در مقابل گزینههای مختلف تنها یک مورد مشخص را انتخاب میکند.
- افزایش سطح اعتماد برای واگذاری انواع تصمیمات به هوش مصنوعی.
- یافتن ایرادات احتمالی و اینکه هوش مصنوعی مورد استفاده مستعد چه نوع خطاهایی است.
- یافتن راهی برای اصلاح خطاها و باگهای موجود.
- افزایش اعتماد به هوش مصنوعی.
کاربردهای هوش مصنوعی توضیح پذیر
- مراقبت های پزشکی: سیستمهای هوش مصنوعی قابل توضیح که به تشخیص مشکلات بیماران کمک میکنند، میتوانند به ایجاد اعتماد بین پزشک و سیستم تشخیصی کمک کنند، چرا که پزشک میتواند بفهمد از چه طریف و بر اساس چه استدلالی به این نتیجه یا تشخیص رسیده است.
- امور مالی: XAI برای تأیید یا رد ادعاهای مالی مانند وام یا درخواست های رهنی و همچنین برای کشف تقلب مالی میتواند مورد استفاده قرار گیرد.
- امور نظامی: سیستمهای مبتنی بر هوش مصنوعی نظامی باید قابل توضیح باشند تا بین افراد و تجهیزاتی که برای ایمنی به آنها تکیه میکنند، اعتماد ایجاد کند.
- وسایل نقلیه خودران: هوش مصنوعی قابل توضیح در وسایل نقلیه خودران برای ارائه توضیح درباره تصمیمات مبتنی بر رانندگی، به ویژه تصمیماتی که حول محور ایمنی میچرخند، استفاده میشود. اگر مسافر بتواند بفهمد که چگونه و چرا وسیله نقلیه تصمیمات رانندگی خود را می گیرد، با دانستن اینکه وسیله نقلیه چه سناریوهایی را میتواند یا نمیتواند تحلیل کند، آگاهی و احساس امنیت بیشتری میکند.
مزایای هوش مصنوعی قابل تبیین (XAI)
XAI به طور کلی مسئولیت پذیری و شفافیت بیشتری را در سیستم های هوش مصنوعی فراهم کرده و هوش مصنوعی را قابل اعتمادتر میکند. افراد ممکن است تمایلی به اعتماد به یک سیستم مبتنی بر هوش مصنوعی نداشته باشند، زیرا نمی توانند تشخیص دهند که این سیستم چگونه به چنین نتیجهای خاص رسیده است. XAI برای ارائه توضیحات قابل درک از تصمیمات خود به کاربران طراحی شده است.
وجود یک هوش مصنوعی قابل توضیح چهارچوبهای کلی یک سیستم مبتنی بر AI را بهبود میبخشد. با شفافیت بیشتر، توسعهدهندگان میتوانند به راحتی مشکلات را شناسایی و برطرف کنند.
وجود یک XAI میتواند بینش و دقت سیستم را در مواجهه با حملات سایبری افزایش دهد. در برخی از این نوع حملات سعی میشود با استفاده از دادههای ورودی که به طور مخرب طراحی شدهاند، یک مدل را فریب دهند یا آن را به سمت تصمیمی نادرست سوق دهند. احتمال موفقیت چنین حملاتی در برابر سیستمهایی که از هوش مصنوعی قابل توضیح بهره میبرند به مراتب کمتر از یک سیستم سنتی هوش مصنوعی خواهد بود.
محدودیتهای هوش مصنوعی قابل توضیح
- بازدهی پایین: مدلهای مبتنی بر XAI معمولاً در مقایسه با مدلهای مرسوم هوش مصنوعی یا به اصطلاح آنهایی که از جعبه سیاه استفاده میکنند، عملکرد پایینتری دارند.
- مشکل در آموزش: ایجاد یک سیستم هوش مصنوعی که استدلال خود را نیز توضیح دهد، در مقایسه با مدلهای جعبه سیاه، بسیار پیچیدهتر است.
- حریم خصوصی: اگر یک هوش مصنوعی قابل توصیف با دادههای محرمانه کار کند، این دادهها ممکن است به دلیل ماهیت شفاف XAI افشا شده و در معرض سوء استفاده قرار گیرند.
سخن پایانی
وقتی صحبت از پیشبینیهای مبتنی بر یادگیری ماشینی میشود، برای کاربران و صاحبان صنایعی که از هوش مصنوعی استفاده میکنند مهم است که بدانند چنین مدلهایی چگونه و چرا تصمیمهای مشخصی میگیرند. برای سازمانهایی که بخشی از کارشان مرتبط با AI بوده و با جان و سرمایه انسانها سروکار دارند درک کامل از فرآیندهای تصمیمگیری و عدم اعتماد کورکورانه به مدلهای سنتی اهمیت فراوانی دارد. در این مقطع است که برای رفع چالشهای پیشرو هوش مصنوعی قابل توضیح وارد عمل شده و شرایط را تغییر میدهد.
هوش مصنوعی قابل توصیف میتواند به انسانها در درک و توضیح الگوریتمهای پیچیده یادگیری ماشین، یادگیری عمیق و شبکههای عصبی کمک کند. این فرایند یکی از الزامات کلیدی برای پیادهسازی یک هوش مصنوعی مسئول است.
تهیه شده در بیت ۲۴