در چامه ۱۲، خطرهای هوش مصنوعی را بیان کردیم. در رویداد آینده تکنولوژی پیرامون هوش انسان در سایه هوش مصنوعی میزبان دو مهمان به صورت مشترک بودیم. امیر احمد حبیبی سال ۱۳۹۶ در رشته مهندسی کامپیوتر از دانشگاه امیرکبیر فارغالتحصیل شد. سپس این کارآفرین ایرانی در دانشگاه آلبرتا کانادا به تحصیل در رشته علوم کامپیوتر پرداخت. حبیبی هماکنون مدیر فنی شرکت پردازش هوشمند مداد است.
حبیبی در ابتدا با مرور تاریخچه هوش مصنوعی به تمایزات بین هوش مصنوعی و انسان میپردازد و در نهایت این سوال را مطرح میکند که چگونه میتوان به هوش مصنوعی اعتماد کرد؟ در ادامه سید محسن موسوی به این سوال پاسخ داد که در پارادایم فعلی هوش مصنوعی این امر شدنی نیست. سید محسن موسوی، فارغالتحصیل رشته مهندسی برق از دانشگاه امیرکبیر است. موسوی همچنین تجربه کارآموزی در شرکت اپل در حوزه هوش مصنوعی را نیز دارد و در حال حاضر استاد امپریال کالج لندن است. موسوی و حبیبی در رویداد چامه، عدم مسئولیتپذیری هوش مصنوعی، راهحلهای اعتمادپذیر کردن آن و نحوه استفاده بهینه از هوش مصنوعی را توضیح میدهند.
جایگاه فناوریهای ساختهشده توسط بشر
امیرحبیبی: در ابتدا میخواهم درباره مسئله انسانبودن صحبت کنم. . تفاوت ما با حیوانات این است که انسان را حیوان ناطق خطاب میکنند؛ یعنی وجه تمایز انسان با حیوان را توانایی منطق، فکر کردن و سخن گفتن میدانند.
از طرفی وقتی الان با chatGPT امکان صحبتکردن وجود دارد، این سوال مطرح میشود که با این سرعت پیشرفت تکنولوژی، در ۱۰ یا ۲۰ سال آینده تفاوت ما با ماشین چیست؟ ما مدت زیادی خود را اشرف مخلوقات میدانستیم و برتریهای واضحی نسبت به بقیه جهان طبیعت داشتیم.
ما فناوریهایی را ساختیم و با این فناوریها بخش زیادی از عوامل موثر بر جامعه را فتح کردیم. فناوری، به مرور زمان، صاحب هوش اندکی شد و البته آن موقع نیز یکسری تمایزات و برتریها نسبت به فناوری داشتیم. در ۵ سال اخیر و امسال (۱۴۰۱) وضع خوب نیست؛ زیرا با خود میگوییم، تکنولوژیای که با این سرعت پیش میرود، اگر ادامه پیدا کند چه اتفاقی میافتد؟
تاریخچه و مسیر رشد هوشمصنوعی
سیر تکنولوژی را مرور کنیم؛ حدود دهه ۲۰ شمسی، اولین کامپیوترها ساختهشد. ۱۰ سال بعد اولین جرقههای هوشمصنوعی زده شد. همان ایام بود که پژوهشهایی برای شبیهسازی روی نورونهای مغزی صورت گرفت. همزمان نیز سختافزار در حال پیشرفت بود که در سال۱۳۹۲ ، فیسبوک مدلی را ارائه داد که معنای کلمات را بدون آموزش میفهمید؛ یعنی زمانی که یک متن را به آن میدادیم میتوانست معنا و ارتباط بین کلمات را تشخیص دهد؛ مثلا ارتباط بین کلمه مادر و پدر را با ملکه و شاه تشخیص میداد.
این موضوع برای ۱۰ سال پیش بسیار حیرتآور بود و فکر میکردیم که دیگر اتفاق خاصی نمیافتد. چند سال بعد یعنی ۱۳۹۴ از سطح کلمه، به جمله رسیدیم؛ یعنی ماشین سطح خوبی از جملات را تشخیص میداد و تولید نیز اتفاق میافتاد. درواقع ماشین مفاهیم را از ورودی زبان انسان وارد نظاممعنایی خود میکرد. حدود سال ۱۳۹۶، ماشین توانست یک متن طولانی را تجزیه و تحلیل کند. امسال (۱۴۰۱) ما توانستیم به صورت مستقیم با ماشین مکالمه کنیم.
به نظر میآید که وضع خیلی خطرناک میشود، با این سرعتی که در طول این ۸۰ سال طی کردیم، در ۳۰ سال آینده، ماشینها عمده توانایی انسانها را خواهند داشت. دایره اختیارات انسان رفتهرفته کمتر میشود. در آینده تمایز انسان و ماشین چیست؟ تمایز بین تولیدات ماشین و انسان چیست؟ اگر نگاه عملگرایانه به این پدیده داشته باشیم، باید بپرسیم از ماشینها چه استفادهای میتوان کرد تا به سوال اصلی پاسخ داد.
هوش مصنوعی نمیتواند خلاق باشد!
یکی از جذابترین مواردی که در ماشینهای امروز وجود دارد، یادگیری ماشین است. ماشین میتواند حجم زیادی شعر بخواند و خود شاعر شود، مانند سایت بلبلزبان. در حالی که بچههای علوم انسانی ما در مدرسه، اوزان عروضی و ادبیات فارسی میخوانند اما چند درصد آنها شاعر میشوند؟ حتی بعضی از افرادی که شعر میگویند به صورت اساسی در وزنهای فارسی مشکل دارند. به نظر میآید که هوش ماشین از انسان در حال سبقت است. این موضوع غیرقابل پیشبینی بود و چنین چیزی انتظار نمیرفت.
حال باید دید که هوش مصنوعی در خارج از چهارچوب تعریفی میتواند کار کند یا خیر؟ مثالی بزنم: بچههای کامپیوتر میدانند که ماشین به هیچوجه نمیتواند یک عدد تصادفی انتخاب کند و حتما باید چهارچوب خاصی را برای آن تعریف کرد. اینجا سوال پیش میآید که دکمه رندوم ماشین حساب چیست؟ در واقع الگوریتمی وجود دارد که دنبالهای را ایجاد میکند و اگر شما عدد اول آن دنباله را بدانید، میتوانید عدد بعدی را حدس بزنید. برای انتخاب یک عدد تصادفیتر، باید از عاملی خارج از چهارچوب محاسباتی ماشین استفاده کنیم. ماشین یک فرمول یا الگوریتم دارد که دقیقا اگر یک ورودی به آن بدهیم به شما یک خروجی تحویل میدهد. انتخاب تصادفی کار سختی است و میتوان گفت نمیتوان آن را انجام داد.
هوش مصنوعی و خلاقیت
ماشین نتوانسته این مسئله را حل کند و به آن معنا خلاقیت داشته باشد؛ در حالی که میدجرنی (Mid Journey) یک اثر هنری را برای ما نقاشی میکند که خلاقانه به نظر میرسد؛ یا یک اثر را هوشمصنوعی Stable Diffusion میتواند نقاشی بکشد که یک مدل دیگر تولید عکس است. حتی تکنولوژی دال-ای2 (DALL.E2) که ادامه نقاشی داوینچی را به تصویر میکشد. از این موضوع خلاقانهتر؟! چیزی که باید به آن توجه کرد این است که تمام این مدل خلاقیتها و تنوع در خروجی ماشین، در پشت پیچیدگی سیستم پنهان شده است.
زمانی که ما خیلی جزئی به سیستم ماشینها نگاه میکنیم، تصور ما این است که این یک سیستم قطعی است و همیشه برای یک ورودی باید یک خروجی دهد و اختیاری از خود ندارد و میتوان این موضوع را نقطه تمایز انسان و ماشین دانست.
تقدم ماشین بر انسان؟
دو دیدگاه در مورد انسان و ماشین وجود دارد. یکسری از کارشناسان علومشناختی از ما ایراد میگیرند که ما آزمایشهایی انجام دادهایم که انسان نیز ماشین پیچیدهای است و قابل پیشبینی است. آزمایش نیز اینگونه است: بخشی از نورونهای مغز که فعالیت الکتریکی درون آن انجام میشود و مربوط به تصمیمسازی انسان است، بخش دیگر مربوط به آگاهی از تصمیم است که تصمیم بر آگاهی تقدم دارد، یعنی اول ما تصمیم میگیریم و سپس آگاه خواهیمشد، فلذا انسان اختیار ندارد و یک سیستم جبری است.
از طرفی تعدادی از کارشناسان علوم اعصاب و علوم شناختی ماشین بودن انسان را به این شکل رد میکنند و تصمیمگیری را فرایند بسیار پیچیده میدانند. در هر صورت بین این دو جبهه دعوا وجود دارد که آیا تصمیمات ما بر فعالیت مغزی تقدم دارد یا خیر؟
با قطعیت میتوان گفت که ماشین یک سیستم پیچیده است که همه چیز آن قطعی است اما مسئله هنوز حل نشده!
آزمایش تورینگ و آزمایش چینی
در این رویداد قصد داریم تفاوت تولیدات انسان و ماشین را درک کنیم. ابتدا آزمایشهایی را برای درک این مسئله بیان میکنم. دانشمندی به نام تورینگ در اوایل به میدان آمدن هوشمصنوعی، چهارچوبی را برای سنجش میزان هوشمندی هوشمصنوعی ارائه داد. گفت: «اگر بتوانم روزی هوش مصنوعیای بسازم که بتواند با یک فرد نامهنگاری کند و آن فرد نتواند تشخیص دهد که با هوش مصنوعی صحبت میکند، آن هوشمصنوعی بردهاست و هوش کاملی است». یعنی سنجه را تولیدات در نظر گرفته و گفته است که هوش مصنوعی اگر بتواند چیزی تولید کند که با انسان برابر باشد آن یک هوش مصنوعی کامل است. به این آزمایش «آزمایش تورینگ» میگویند.
فردی به نام «جان سرل» تمثیلی به عنوان «اتاق چینی» ارائه داد. آزمایش به این صورت است که اگر فردی را داخل یک اتاق بگذارند و از زیر درب به او یک نامه به زبان چینی بدهند. با این فرض که فرد درون اتاق اصلا به زبان چینی مسلط نیست و با استفاده از کتاب آموزش چینی بتواند جواب نامه را بدهد. موضوع مهم این است که فرد داخل اتاق از نکات داخل نامه آگاهی ندارد و با استفاده از راهنما اینکار را انجام میدهد. جان سرل معتقد بود که تعبیر تورینگ در مورد هوشمصنوعی ایدهال، هوشمصنوعی ضعیفی است. هوشمصنوعی قوی از نظر جان سرل، هوش مصنوعی است که آگاهی و درک داشته باشد. به تعبیر دیگر هوشمصنوعی مورد نظر جانسرل دارای آگاهی و درک است.
آیا میتوان به هوش مصنوعی اعتماد کرد؟
بحث درک و آگاهی یک مسئله ریشهدار است. ارسطو در حدود ۲ تا ۳ هزار سال پیش درباره این موضوع صحبت کرده بود؛ به این معنا که اگر من میخواهم تصمیم بگیرم و انتخابی بکنم، قبل از آن نسبت به تصمیم خودم آگاهی دارم که چه انتخابی کنم. آگاهی چیز مهمی است و متفکران سالیان سال درباره این موضوع بحث میکردند. اگر بتوانم تشخیص دهم که ماشین آگاهی ندارد، میتوانم این نکته را یک وجه تمایز انسان و ماشین در نظر بگیرم. باز مسئلهای دیگر پیش میآید!
هدف من این است که ماشین کار من را انجام دهد، به من چه ربطی دارد که ماشین بفهمد یا نفهمد؟ من میخواهم کارم انجام شود و آدم عملگرایی هستم؛ در بخشی از جواب این سوال همه اتفاق نظر داریم؛ اینکه من اگر به هوش مصنوعی با نگاه ابزار نگاه کنم باید برای انجام کارم به آن اعتماد داشته باشم و به آن اتکا کنم. مخصوصا زمانی که قرار است از کارکرد این ابزار در بعد اجتماعی استفاده کنم. اگر آنموقع هوش مصنوعی به قوانین و آداب ما آشنا نباشد دیگر به دید ابزار نمیتوانیم به هوش مصنوعی نگاه مثبت داشته باشیم.
در ادامه بریم سراغ کسی که حوزه تخصصی و کارش اعتماد کردن و قابل اعتماد ساختن هوشمصنوعی است. آقای دکتر سیدمحسن موسوی، استاد امپریال کالج لندن.
پارادایمهای هوش مصنوعی
امیر احمد حبیبی: آیا هوشمصنوعی میتواند ارزشها و مسائل اخلاقی را درک کند؟
سید محسن موسوی: قبل اینکه به این سوال پاسخ بدهم، بگذارید یک خلاصه از بخش اولی که شما گفتید را شرح دهم. این اتفاق باعث میشود که پارادایم فعلی هوش مصنوعی را بشناسید و بدانید چه پارادایمهای جایگزینی وجود دارد؟ پارادایم فعلی را اگر بخواهیم خلاصه کنیم، میتوانیم در سه عنصر دادههای عظیم، مدلهای محاسباتی پیچیده و قدرت سختافزاری بالا خلاصه کنیم.
پارادایم فعلی هوش مصنوعی
در این پارادایم کار ما چیست؟ کار ما این است که تعداد داده زیاد را به این مدلهای محاسباتی نشان دهیم و از آنها بخواهیم که ورودیها را به خروجی تبدیل کنند. انگار که ما تعداد زیادی مثال به این مدلها نشان میدهیم و آنها یاد میگیرند که چگونه این ورودیها را به خروجی تبدیل کنند. مثالش هم Midjourney، Dall-e و Stable Diffusion بود که آقای حبیبی نشان دادند. ما برای یادگیری این مدلها تعداد زیادی متن و تصویر مرتبط به این مدلها نشان دادیم و این مدلها با توجه به این دادهها به خوبی یاد گرفتند. حال که یک متن جدید به مدل دادیم، انتظار داریم که یک تصویر جدید متناسب با آن متن تولید کند. این پارادایم فعلی است.
پارادایم هوش مصنوعی در گذشته
در گذشته یعنی ۵۰ سال پیش نیز یک پارادایم وجود داشت که مردم امید زیادی به آن داشتند. آن پارادایم اینگونه بود که هوش مصنوعی را با دنبالکردن اصول منطقی و مشخص برای انسان بسازیم. یعنی ورودیای که در دست داریم را با چه منطقی تبدیل به خروجی کنیم؟ برای مثال زمانی که یک جمله را به ماشین میدهیم برای آن مشخص کنیم که قواعد جمله چه مواردی است؟ فعل، فاعل، اسم، حرف و… هر کدام از این اسمها چه ماهیتی دارند؟ حیوان، اشیاء، یک درختواره و نظام مفاهیم برای ماشین تعریف کنیم، به این صورت ماشین یاد میگیرد و ورودیها را به خروجی تبدیل میکند.
درک ارزشهای اخلاقی توسط هوش مصنوعی
به سوال آقای حبیبی برگردم، آیا هوش مصنوعی ارزشهای اخلاقی ما را درک میکند؟ فکر میکنم بتوانید حدس بزنید که در پارادایم فعلی این موضوع شدنی نیست. البته اول باید بدانیم که منظور از درک چیست؟ اگر منظور ما همان تعریف پراگماتیسمی (عملگرایی) است که خروجی مدل یا هوش مصنوعی چیست؟
چه زمانی میگوییم یک فرد ما را درک میکند؟ پیش یک مشاور میرویم، درباره مسائل و مشکلات صحبت میکنیم و یک حس به ما دست میدهد که مشاور ما را درک میکند. اگر حس را تابعی از حرفهای مشاور یا زبان بدن مشاور در نظر بگیریم، بله میتوان گفت که هوش مصنوعی میتواند به این سطح از درک برسد؛ یعنی درک را بازی و تقلید کند. سوال اینجاست که آیا میتواند فراتر از این برود؟ این دیگر از حوزه علمی که من میشناسم خارج باشد. علمای فلسفه و اخلاق باید بگویند که آیا بر اساس خروجیها میتوان گفت که سیستم از خود اختیاری دارد؟ این مثال به آزمایش چینی نیز کمی شباهت دارد. تشخیصِ داشتن آگاهی آن سیستم از حوزه science خارج است.
عدممسئولیتپذیری هوش مصنوعی
امیر احمد حبیبی: حوزههایی وجود دارند که نمیتوان در آنها به هوش مصنوعی اتکا کرد، لطفا چند نمونه از این حوزهها را ذکر کنید که ابهامهای ما حل شود.
سید محسن موسوی: مشکل که زیاد است اما بگذارید از اینجا شروع کنم. آیا هوش مصنوعی میتواند مسئولیت خروجیهای خود که شامل متن، تصویر و ویدئو است را برعهده بگیرد؟ شاید این یک جنبهی مهم است، در پارادایم فعلی ما نمیتوانیم هوش مصنوعی را مسئولیتپذیر بدانیم. فرض کنید که اتفاقی افتاده است و یک ماشین بخاطر خطای هوش مصنوعی تصادف کرده است. زمانی که هوش مصنوعی را مسئول بدانیم، به این معنا است که مسئولیت اصلی را از آدمهای دخیل در امر که Agency (نقش و وظیفه) داشتند، سلب کردهاید. در حال حاضر نمیتوان مسئولیتی را از کسی سلب کرد و بر دوش هوش مصنوعی گذاشت. مشکل بزرگتری نیز وجود دارد که حتی در پارادایم فعلی نمیتوان در مورد آدمها گفت که چه کسی مسئول است؛ کسی که داده را تولید کرده است؟ که آن هم بخشهای مختلف دارد؛ یا آن شخصی که الگوریتم یادگیری را طراحی کرده است؟
یک مثال، خودرو معمولی و خودران است. یک خودرو زمانی که تصادف میکند؛ مقصر راننده نیست و یک اشکال فنی باعث ایجاد تصادف شده است. خیلی راحت میتوان تشخیص داد که چه قطعهای ایراد دارد و آن قطعه مشکل طراحی دارد یا ایراد از سازنده است؟ میتوان مسئول را پیدا کرد.
پارادایم فعلی هوش مصنوعی قابل اعتماد نیست
مسئله اینجاست که در پارادایم فعلی نه تنها هوش مصنوعی مسئولیتپذیر نیست؛ حتی نمیدانیم اگر آن مدل شکست خورد یقه چه شخصی را بگیریم؛ چون هیچ ایدهای نداریم که چه کسی مقصر است؟ از داده است؟ و از کدام بخش داده است؟ از الگوریتم بوده است یا از نحوه استفاده از مدل بوده است؟ به همین خاطر در پارادایم فعلی نمیتوان گفت که هوش مصنوعی مسئولیتپذیر است و این موضوع اعتمادپذیری و اطمینانپذیری هوش مصنوعی را زیر سوال میبرد. شما زمانی که سوار ماشین میشوید، به راننده اعتماد میکنید و اگر اتفاقی بیفتد مسئول آن راننده است. در حالی که وقتی سوار یک خودروی خودران میشوید، نمیدانید مسئول آن کیست. این موضوع روی اعتماد و عدم اعتماد ما روی هوش مصنوعی تاثیر میگذارد.
راهحلهای اعتمادپذیر کردن هوش مصنوعی
امیر احمد حبیبی: مسئله تاثیرپذیری، یک مسئله حساس است. رویکرد ما برای حل این مشکلات چیست؟ راهحلهای بلندمدت یا کوتاهمدت ما به چه سمتی پیش میرود؟
سید محسن موسوی: خیلی از پژوهشگران روی این مسائل کار میکنند. بخش زیادی از پژوهشهای پژوهشگران این است که در پارادایم فعلی چگونه هوش مصنوعی را قابل اعتمادتر کنیم. چالشهای جدی نیز وجود دارد و بخشی از آنها بخاطر همین پارادایم به وجود میآیند. همین که تصمیم گرفتیم مدلها را با نشان دادن دادهها آموزش دهیم؛ یعنی از روابط علت و معلولی صرف نظر کردهایم.
یک بخشی از افراد معتقد هستند که پارادایم قبلی را با پارادایم فعلی ترکیب کنیم، اما هنوز اتفاق قابل توجهی نیفتاده است. چالشهای پیشِرو همه فنی نیستند و به مسائل اجتماعی نیز مرتبط میشوند؛ مثلا اگر جامعه هوش مصنوعی را به مثابه ترمیناتور فرض کند، دیگر نمیتواند به آن اعتماد کند. زیرا تصور میکند که هوش مصنوعی مردم را از بین میبرد. هرچند که بهبود مسائل فنی میتواند اعتماد ایجاد کند اما بیشتر مسائل به موارد اجتماعی مرتبط است.
عامل مهم دیگر بر ایجاد اعتماد، موارد حقوقی و قوانین مرتبط با هوش مصنوعی است. در گذشته حملونقل با اسب بوده و رفته رفته خودرو جای آن را گرفته است. در طول زمان، قوانین متناسب با تکنولوژی شکل میگیرد. مسلما برای هوش مصنوعی قوانین سازگار و مناسبی نیاز داریم. به نظر میرسد هنوز بخش تکنیکال (فنی) از بخشهای دیگر مهمتر است” چون هنوز به آن مرحله نرسیدیم که به حقوقدان بگوییم: برای این ابزار قوانین تنظیم کند و با اطمینان کامل به مردم بگوییم که اگر سوار o,nv, خودران شوید، دیگر برای شما اتفاقی نمیافتد. هنوز موارد فنی اولویت دارد.
هوش مصنوعی و میل به جاودانگی
سوال حاضران در رویداد: آیا به زمانی میرسیم که بتوانیم هوش مصنوعی یک سیستم را تهدید کنیم؟ یعنی هوش مصنوعی که میل به جاودانگی داشته باشد و ما آن را تهدید کنیم که تو را خاموش میکنیم و آن هوش مصنوعی بترسد.
سیدمحسن موسوی: در پارادایم فعلی من فکر نمیکنم چنین اتفاقی بیفتد. البته هوش مصنوعی چرا باید احساس خطر کند و میل به جاودانگی داشته باشد؟ زمانی که در مورد این موضوع صحبت میکنیم، موضوع دیگر فنی نیست و فلسفی میشود. زمانی که به دانش خودمان و پارادایم فعلی نگاه میکنم، جایی برای این موضوع نمیبینم.
آزادی عملدادن به هوش مصنوعی، موضوعی خطرناک!
سیدمحسن موسوی: آزادی هوش مصنوعی این است که هر خروجی که بخواهد بر اساس دادهها تحویل دهد. یعنی آزادی هوش مصنوعی در حیطه همان دادههای ورودی است. مثلا اگر یک حرف زشت به ChatGpt گفته شود، آن بررسی میکند و براساس جستوجو به این نکته میرسد که جواب حرف زشت، حرف زشت بدتر است. این همان آزادی عملی است که ما به هوش مصنوعی دادهایم. دادههایی که ChatGPT از آن به عنوان ورودی استفاده میکند، معمولا از دادههای گوگل است که غالبا مسموم است و سوگیری و دروغ بین آنها وجود دارد. زمانی که از این دادهها برای یادگیری مدل استفاده میکنیم به این معنا است که آزادی عمل به هوش مصنوعی دادهایم. به ماشین میگوییم از همان دادهای که دیدهای استفاده و تقلید کن. مدل، حرف گوش کن است و از آن دادهها نیز تبعیت میکند و اگر داده مسموم باشد، خروجی ماشین نیز مسموم است.
این موضوع خیلی خطرناک است. معضلی که در حال حاضر با آن مواجه هستیم، اخبار جعلی، تصاویر و فیلمهایی است که از اینترنت جمعآوری شده است. در نتیجه اینترنت، نمای خوبی از جامعه انسانی و اخلاق جامعه انسانی نیست. مدل (هوش مصنوعی) نیز یاد گرفته است که همان رفتارهای منفی را تکرار کند و ما نیز از این روند استفاده میکنیم و دادههای جدیدی تولید میشود.
پیشبینی میشود دادهای که در ۵ سال آینده قرار است در اینترنت تولید شود، توسط هوش مصنوعی خواهد بود نه توسط انسان، این زنگ خطر است. چون محتوای منفی روز به روز افزایش پیدا میکند و ما نیز از آن استفاده میکنیم و همین باعث میشود نسخههای جدیدتر هوش مصنوعی منتشر شود و این چرخه ادامه پیدا کند.
خطا برای هوش مصنوعی ضروری است
سوال حاضران در رویداد: سوال اول) خطا یک جزء جداییناپذیر از انسان است، ما میگوییم هوش مصنوعی به انسان خواهد رسید و بعد از آن پیشی میگیرد. آیا خطا برای هوش مصنوعی نیز یک بخش جداییناپذیر میشود؟
سید محسن موسوی: خطا بخش جداییناپذیر است، حتی Argument (استدلال) ریاضی میتوان انجام داد که اصلا خطا باید باشد تا یادگیری اتفاق بیفتد. ما با خطاها مسئلهای نداریم و خطا بخشی از کار است. مسئله اصلی این است که خطاها شناخته و حدود و ثغور آن مشخص شود. این است که باعث به وجود آمدن اعتماد میشود. مثلا در انسانها میدانیم که اگر فرد خسته باشد، احتمال خطای آن بالا میرود و زمان خوبی برای مشورتگرفتن از آن نیست. اگر فرد خسته باشد احتمال تصادف برای آن زیاد است. در مورد هوشمصنوعی نیز تمایل داریم بدانیم در چه مواقعی و در چه شرایطی هوش مصنوعی خطا میکند. پس سوال اصلی این نیست که آیا هوشمصنوعی خطا میکند یا خیر؟ بله. خطا میکند و از نظر ریاضی نیاز است که خطا کند. این مهمتر که هوش مصنوعی در چه مواقعی و شرایطی خطا میکند.
درک هوش مصنوعی چقدر است؟
سوال دوم) ما در یک کنشِ مساوی در شرایط متفاوت، واکنشهای متفاوتی داریم. حتی گاهی اوقات این واکنش متفاوت را انتخاب میکنیم. به طور مثال ما با کسی که رودروایسی داریم، آن حرفی که میخواهیم بزنیم را نمیزنیم. آیا هوش مصنوعی به این مرتبه از قدرت رسیده یا میرسد؟
درباره سوال دوم، این موضوع در حیطه science (علم) نیست. ولی بخش دیگر که درباره رودرواسی انسانها صحبت کردید، این رودرواسی نیز ورودی است، پس شرایط دقیقا یکی نیست. افرادی که به صورت deterministic (قطعی و قابل پیشبینی) فکر میکنند و معتقدند که انسان قابل پیشبینی است، در این حالت میگویند که زمانی که شما رودرواسی دارید و زمانی که رودرواسی ندارید، همه چیز یکسان است. رودرواسی از کجا میآید؟ از تجربه تعاملات قبلی شما با این فرد است و نمیتوان شرایط را دقیقا یکی دانست و شرایط دقیقا یکی نیست. شاید فردی بگوید اگر شرایط یکسان باشد، خروجی کار نیز یکسان است. خیلی موضوع سختی است که ثابت کنیم که برای دو فرد شرایط یکسان فراهم کنیم که واکنشهای متفاوت انجام دهند.
هوش مصنوعی برای مشاغل، تهدید یا فرصت؟
سوال حاضران در رویداد: من برای تولید محتوای سایتم از ChatGPT استفاده میکنم و زمان من را خیلی آزاد کرده است. سوال من این است که چه تهدیدی برای شغلهایی مثل تولید محتوا، وجود دارد؟
سید محسن موسوی: سوال خوبی است. تغییرات این مدلها را در زندگی مشاهده میکنیم. همین Deep Fake؛ ویدیوها و تصاویر فیکی که ایجاد شده است تاثیر میگذارد. مثلا در دادگاهها دیگر فیلم سند نیست و اعتماد را سخت میکند. خبر دروغ به صورت انبوه میتواند پخش شود. در گذشته خبر دروغ داشتیم اما الان خیلی راحت خبر دروغ تولید میشود و با دسترسی رایگان به چت جیپیتی میتوان این کار را انجام داد.
یک بحث دیگر این است که میگوییم برنامهنویسها و بقیه مشاغل بیکار میشوند؛ این بحث باید کمترین اهمیت را برای ما داشته باشد. زمانی که کامپیوترها جای محاسبه دستی را گرفتند، افراد مهارتهای بیشتری به دست آوردند و شغلی حذف نشد و فقط فرم شغلها تغییر کرد. من از این بابت نگران نیستم.
یک زمانی ما متن را به چتجیپیتی میدهیم و آن متن را خلاصه میکند، یکبار از آن میخواهیم که درباره تابستان یک توصیف و متنی به ما بدهد؛ آیا این متن منحصر به فرد و کپی از جای دیگری نیست؟ این را گفتم که مسئله بزرگتری را مطرح کنم.
نقض حریم خصوصی توسط هوش مصنوعی
مدلهای هوش مصنوعی حافظه خوبی دارند؛ در صورتی که ما دوست نداریم که هوش مصنوعی حافظه خوبی داشته باشند. دوست داریم که هوش مصنوعی خلاق باشد و فراتر از دادهای که دیده، عمل کند. متاسفانه مدلهای فعلی خواسته ما را فراهم نمیکنند. مدلهای قدیم ChatGPT (نسخه ۲)، آدرس، شماره تلفن و اسم فرد را میداند و ما انتظار این کار را نداشتیم. میدانیم تمام این اطلاعات در اینترنت است اما اینکه همه موارد را بخاطر بسپارد، حریم خصوصی را نقض میکند.
یک مسئله دیگر در اینترنت وجود دارد به اسم حق فراموشی؛ اگر شما در اینترنت مطلبی گذاشته باشید، میتوانید با توجه به قوانینی تحت عنوان GDPR مخفف General Data Protection Regulation به معنی «مقررات محافظت از دادههای عمومی» از آن سایت درخواست کنید که تمام اطلاعات شما را حذف کنند. شما نمیتوانید از شرکت Open Ai که سازنده ChatGPT بوده است درخواست کنید که اطلاعاتتان را حذف کند. میگوید:«شرمنده نمیتوانم حذف کنم و چگونه میتوانم حذف کنم؟».
پارادایم فعلی به گونهای است که به نمونه به ماشین نشان داده شده است و مکانیزم خاصی ندارد؛ من هم نمیتوانم بگویم نورونهای عصبی من مسئول داده فلان شخص است. این داده در همه سیستم پخش است و نمیتوان آن را حذف کرد و این باعث میشود که حق فراموشی نقض شود. زمانی که با استفاده از ابزار هوش مصنوعی یک تصویر تولید میکنید، ممکن است آن تصویر برای شخص دیگری باشد و مالکیت معنوی داشته باشد. این مسئله مهمی است و حریم خصوصی و مالکیت معنوی با این اتفاق زیرسوال میرود و دلیل آن بحث memorization «به خاطر سپردن» است که باید توسط افرادی که تولید محتوا میکنند مورد توجه قرار گیرد.
برای استفاده از هوش مصنوعی همه جوانب را در نظر بگیریم
موضوعی که حسنختام عرایض بنده است را خدمتتان عرض میکنم. حتی اگر جنبههای فلسفی را نادیده بگیرم، من در جایگاه پژوهشگر Science در خدمت شما هستم و بلد نیستم درباره فلسفه صحبت کنم. همین الان میتوانیم چشمهای خود را روی لیست بدها ببندیم و بگوییم این موضوع هم مثل روندهای دیگر تکنولوژی است.
همانطور که در گذشته ابزارهای انرژی کشف شد و نحوه استخراج انبوه انرژی را یاد گرفتیم، گرمایش زمین یا تغییرات اقلیم را در پی داشت و بحرانهایی را ایجاد کرد. کشف سلاح هستهای که سیاست، اقتصاد و… را تحت تاثیر خود قرار داد. اگر اثرات منفی را انکار کنیم، یعنی اتفاقات منفی و تجارب قبلی را انکار کردیم. یعنی میخواهیم اشتباهات قبل را دوباره تکرار کنیم؛ که من فکر میکنم بحرانهای بزرگتری ایجاد میشوند. اگر بمب اتم کلی کار بد انجام داد و ستون خوبی نداشت، هوش مصنوعی ستون خوبی دارد اما ستون بد زیادی هم دارد که میتواند بحرانهای وجودی ایجاد کند.
آیا به سراغ هوش مصنوعی نرویم و تحقیق انجام ندهیم؟
نه، حرف این نیست؛ چون فکر میکنم در درازمدت ابزارها و تکنولوژی، خود را به ما دیکته میکنند و اگر ما روی آن کار نکنیم، شخص دیگر این کار را میکند. دیر یا زود هوش مصنوعی، خود، فرهنگ و بارش را به ما تحمیل میکند؛ در نتیجه فکر میکنم در سطح فردی بتوانیم تصمیمات مسئولانهتری بگیریم. زمانی که ما در جایگاه مهندس داده در یک شرکتی کار میکنیم، وقتی رئیس ما بخواهد، یک مسئلهای را حل کنیم، چون هوش مصنوعی روش ترندیست، نباید روشهای سنتی، Interpretable «قابل تفسیر» و white box را کنار بگذاریم. برای استفاده از ابزار هوش مصنوعی باید همه جوانب را از جمله حریم خصوصی، امنیت و سوگیری، در نظر بگیریم و یک وزن به آن بدهیم.
درک، آگاهی و حس برای هوش مصنوعی
امیراحمدحبیبی: بحث به جای مرتبطی رسید، تمرکز من روی انسان بودن بود. میخواستم درباره این صحبت کنم؛ دغدغه من این است که انسان چه کارهایی میتواند بکند؟ انسان ویژگیهایی دارد که ما از آن اطلاع نداریم. مثلا ما یک شبکه عصبی عمیقی دور معده و روده داریم که میتواند در حد مغز توانایی داشته باشد و به آن مغز دوم میگویند. هنوز نمیدانیم دقیقا چکار میکند و چه بخش از پردازشها را انجام میدهد.
ما در رفتارهای انسانی چیزی به اسم حس داریم، درک و آگاهی از جنس حس است. من اگر غذایی بخورم و لذت ببرم، از جنس حس است. عشقورزی از جنس حس است. این با آنچیزی که توانستیم اینجا محاسبه کنیم، جور درنمیآید.
دید ما به هنر و سلیقه متفاوت است و هر کدام از ما یک چیز متفاوت را زیبا میبینیم. یک بخش از زیبایی مربوط به نظم، چهارچوب، هماهنگی بین رنگها و اوزان و اصوات است؛ این به کنار، زیرا ماشین نیز میتواند این را تولید کند. یک بخش اساسی در بخش زیباییشناسیِ ما به این برمیگردد که کسی که این اثر را تولید کرده یک انسان بوده است و تجربیاتی که من داشتهام را داشته و این حس واقعیبودن خیلی مهم است که هوش مصنوعی این حس را ندارد.
حافظ میگوید:
بنشین بر لب جوی و گذر عمر ببین
کین اشارت ز جهان گذران ما را بس
احساسات تنها چیزی است که هوش مصنوعی آن را هیچ وقت درک نمیکند
چیزی که باعث میشود از این شعر الهام بگیریم و با شعر تولیدشده هوش مصنوعی تفاوت داشته باشد، تجربیات یک شاعر در قرن هشتم است. یعنی یک آقایی در قرن هشتم بر لب یک جویی نشسته و احساساتش قلیان کرده است. این از فرم خود شعر و قافیه آن خیلی مهمتر است، که هوش مصنوعی نیز توانایی ساخت آن را در فرم و وزن دارد. پشت این اتفاقات من یک انسان را میبینم که فاعل بوده است.
فعالیت انسان یک مسئله اساسی و مهم در طول تاریخ است. رشد ما از فعالیت ما است نه زمانی که مفعول واقع میشویم. یک مثال ساده، شما اگر بخواهید زبان انگلیسی یاد بگیرید و ۱۰ سال پادکست گوش دهید و فیلم ببینید، به اندازه یک سال انگلیسی خواندن به صورت عملیاتی در محیط موثر نیست. البته من قصد تقلیل فاعلیت به آموختن مهارت ندارم، فعالیت و رشد انسان فراتر از آموختن مهارت است اما چیز اساسی است.
هوش مصنوعی و سلب قدرت تفکر
ما میخواستیم از چنگ نیروهای خارجی آزاد شویم و به سراغ ساخت تکنولوژی رفتیم تا با غلبه به محیط پیرامون خود آزادی داشته باشیم اما همین تکنولوژیها آزادی ما را سلب کردند. ما تصمیم گرفتیم خیلی از اختیارات خود را به ماشین بسپاریم، برای گفتوگو با اشخاص از پیام متنی استفاده میکنیم که باعث شد خیلی از احساسات ما دیگر به مخاطب و طرف مقابل منتقل نشوند.
برای پیدا کردن یک آدرس از بلد و نشان استفاده میکنم؛ یعنی یک قسمت زیادی از آگاهی و درک جغرافیای شهری را به هوش مصنوعی سپردم و تصمیم میگیرم، دیگر فکر نمیکنم. تصمیم میگیرم دیگر از ذهنم استفاده نکنم و آن را تنبل کنم و از ظرفیت ذهنم بهرهمند نشوم. ما داریم تصمیم میگیریم که فرمانبردار باشیم و برای این موضوع تصمیم نگیریم.
تکنولوژی آزادی ما را محدود کرده است. خیلی از اندیشمندان، از گذشته معتقد بودند که ذات تکنولوژی، خاصیت چهارچوبساز دارد و ما را مجبور میکند که در یک چهارچوب کار کنیم.
انسان بودن!
در این بین دعوایی وجود دارد بین افرادی که موافق تکنولوژی و پیشرفتهای ناشی از آن هستند و افرادی نیز مخالف تکنولوژی و طرفدار طبیعتاند. در این دعوا ما چیز دیگری را گم کردیم و آن حد اعلی فعالیت انسان بوده است. مسئله اصلی ما این نبود که عوامل بیرونی را کنترل و محدود کنیم بلکه مسئله ما کنترل مسائل درونی ماست. ما باید خود را بشناسیم و بر خواستههای درونی تسلط پیدا کنیم. زمانی آزادیم که بتوانیم از بند خود رها باشیم. این آزادی رشد ما را در پی دارد.
حافظ خیلی زیبا میگوید:
که ای بلندنظر شاهبازِ سِدره نشین
نشیمن تو نه این کُنجِ محنت آبادست
تو را ز کنگرهٔ عرش میزنند صفیر
ندانمت که در این دامگه چه افتادست