ایمی وب، بیزنس اینسایدر — وقتی دستورالعملی مبتنی بر ارزشهای انسانگرایانه برای غولهای بزرگ فناوری در کار نباشد، تجربهها و آرمانهای شخصیاند که تصمیمگیریها را پیش میبرند. وقتی ماجرا به هوش مصنوعی برسد، این مسئله بسیار خطرناک میشود چون دانشجویان، استادان، محققان، کارکنان و مدیران، هر روز، میلیونها تصمیم میگیرند: از تصمیمهای بهظاهر بیاهمیت (از کدام پایگاهداده استفاده کنند) تا تصمیمهای بنیادین (اگر یک خودروی هوشمند مجبور به تصادف باشد، باید به سمت کدام قربانی برود؟).
شاید مغز انسان الهامبخش هوش مصنوعی بوده باشد، اما تصمیمگیری و انتخاب انسانها و هوش مصنوعی با هم فرق دارد. دنیل کانمن، استاد دانشگاه پرینستون، و آموس تورسکی، استاد دانشگاه عبری اورشلیم، که سالها برای مطالعۀ مغز انسان و نحوۀ تصمیمگیری ما وقت گذاشتهاند، در نهایت کشف کردند که ما دو سیستم فکری داریم: یکی از منطق برای تحلیل مسألهها استفاده میکند، و دیگری که خودکار و سریع است و تقریباً برای ما نامحسوس. کانمن این سیستم دوگانه را در کتاب تفکر، سریع و آهسته۱ که جایزههای متعددی بُرده است شرح میدهد. مسائل دشواری وجود دارد که نیازمند توجه شما و بالتبع حجم زیادی از انرژی ذهنیتان هستند. به همین دلیل است که اکثر افراد نمیتوانند در حین راهرفتن مسائل طولانی محاسباتی را حل کنند چون حتی کاری مثلِ راهرفتن هم به آن بخش انرژیبَر مغز نیاز دارد. اکثر اوقات، سیستم دیگر زمام امور را در دست دارد. ذهن سریع و شهودی ما در طول روز بهطور خودکار هزاران تصمیم میگیرد، و گرچه کمتر انرژی مصرف میکند اما آکنده از سوگیریهای شناختی است که بر هیجانات، باورها و افکار ما اثر میگذارند.
بهخاطر قسمت سریع مغزمان است که اشتباه میکنیم. در خوردن یا آشامیدن زیادهروی میکنیم یا رابطۀ جنسی محافظتنشده داریم. همان قسمت مغز است که زمینۀ کلیشهسازی را فراهم میکند. ما بر اساس دادههایی بسیار کم دربارۀ افراد دیگر قضاوت میکنیم بیآنکه آگاهانه از این کار خبردار شویم. یا آن افراد به چشم ما نمیآیند. قسمت سریع مغز موجب میشود مستعد آن پدیدهای باشیم که اسمش را «پارادوکس اکنون» گذاشتهام: به طور خودکار فرض میکنیم که شرایط کنونیمان تغییر نخواهد کرد، یعنی اصلاً محال است که تغییر کند، حتی اگر با نشانههایی مواجه باشیم که از چیزی نو یا متفاوت حکایت میکنند. شاید فکر کنیم که کنترل کاملی بر تصمیمگیریمان داریم، اما بخشی از ما مُدام در حالت پرواز خودکار است.
ریاضیدانان میگویند بهخاطر پیچیدگی سیستمها و سیالیتِ همیشگیِ آینده (که این سیالیت تا سطح مولکولی نیز ادامه دارد)، محال است بتوانیم «تصمیم بینقص» بگیریم. محال است بتوانیم تکتک بروندادهای ممکن را پیشبینی کنیم، و چون تعداد متغیرها مجهول است، بههیچوجه نمیتوان مدلی ساخت که همۀ پاسخهای ممکن را سبکسنگین کند. چند دهۀ پیش، وقتی مرزهای هوش مصنوعی در حد شکستدادن آدمها در بازی چکرز بود، متغیرهای تصمیمگیریْ روشن و واضح بودند. امروزه که از هوش مصنوعی میخواهیم دربارۀ یک تشخیص پزشکی نظر بدهد یا سقوط بعدی بازار مالی را
آیندۀ هوش مصنوعی (و بالتبع آیندۀ بشریت) در دست فقط ۹ شرکت است که فریموُرکها، چیپستها و شبکهها را توسعه میدهند، پشتیبان مالی عمدۀ تحقیقاتاند، سهم اصلی را در حق اختراعها میبرند، و در این میان دادهکاوی روی اطلاعات ما را به شیوههایی انجام میدهند که نه برایمان شفاف است و نه مشاهدهپذیر. شش تای آنها در ایالات متحدهاند که اسمشان را جی-مافیا گذاشتهام: گوگل، مایکروسافت، آمازون، فیسبوک، آیبیام و اپل. سهتا در چین هستند که اسمشان را بَت میگذارم: بایدو، علیبابا و تنسنت. یک مثال بزنم که وقتی این ۹ غول از دادههای ما برای ساختن ابزارهای کاربردی دنیای واقعی با مقاصد تجاری و حکومتی استفاده میکنند، چه مشکلات و مسائلی پیش میآید. محققان در دانشکدۀ طب ایچان در نیویورک یک آزمایش «یادگیری عمیق» انجام دادند تا ببینند آیا میتوانند یک سیستم را جوری آموزش دهند که سرطان را پیشبینی کند. این دانشکده که در بیمارستان ماونت سینای قرار دارد، به دادههای ۷۰۰ هزار بیمار دسترسی پیدا کرد، و این مجموعهدادهها شامل صدها متغیر متفاوت بود. سیستم آنها، به نام دیپ پیشنت، تکنیکهای پیشرفتهای برای شناسایی الگوهای جدید در دادهها داشت که محققان کاملاً از آنها سر در نمیآوردند، اما از قضا در یافتن بیماران در مراحل اولیۀ بسیاری بیماریها از جمله سرطان کبد بسیار خوب عمل میکرد. این سیستم همچنین میتوانست نشانههای هشدار برخی اختلالهای روانپزشکی مانند شیزوفرنی را هم پیشبینی کند که عجیب بود. ولی حتی محققانی که این سیستم را ساخته بودند، نمیدانستند که سیستمشان
هوش مصنوعی «دیپدریم» هر عکسی را به شاهکاری وهمانگیز تبدیل میکند. عکس:گتی.
وقتی که هوش مصنوعی رؤیاپردازی میکرد، چیزهای کاملاً جدیدی میساخت که برای خود سیستم منطقی بودند اما برای ما ناشناس، از جمله حیوانهای ترکیبی مثل یک «خوک-حلزون» و «سگ-ماهی.» رؤیاپردازی هوش مصنوعی لزوماً مایۀ دلواپسی نیست، اما نشان میدهد که تفاوتهایی گسترده میان دو امر وجود دارد: یکی معنایابی انسانها از دادههای دنیای واقعی، و دومی فهم سیستمهایمان از دادههای ما وقتی که به حال خود رها شده باشند تا به دستگاههایشان تکیه کنند. وقتی این تیم تحقیقاتی یافتههای خود را منتشر کرد، جامعۀ دستاندرکاران هوش مصنوعی از آن بهعنوان یک پیشرفت بزرگ در زمینۀ هوش مصنوعیِ مشاهدهپذیر تقدیر کردند. درعینحال، تصاویر چنان بُهتآور و غریب بودند که در سراسر اینترنت پخش شدند. چند نفری هم از برنامۀ دیپدریم استفاده کردند تا ابزارهایی بسازند که به هرکس امکان میداد برای خودش عکسهای مدل فاز روانگردانها را بسازد. حتی برخی از طراحان گرافیک نوآور و کارآفرین هم بودند که با دیپدریم کارتهای تبریک عجیب ولی بسیار زیبا ساختند و آنها را برای فروش در Zazzle.com گذاشتند.
دیپدریم
نرمافزارهای کاربردی هوش مصنوعی که این ۹ غول میسازند، اکنون در حال ورود به جریان اصلی بازار هستند و قرار است کاربرپسند باشند یعنی به ما امکان دهند که سریعتر و کارآتر عمل کنیم. کاربران نهایی (ادارات پلیس، آژانسهای حکومتی، کسبوکارهای کوچک و متوسط) یک داشبورد حاضر و آماده میخواهند که پاسخها را تحویلشان بدهد و ابزاری میخواهند که کارهای تکراری شناختی یا اداری را خودکار پیش ببرد. ما رایانههایی میخواهیم که مسئلههایمان را حل کنند، و میخواهیم کمتر کار کنیم. همچنین میخواهیم پایمان کمتر گیر باشد، یعنی اگر مشکلی پیش آمد بتوانیم تقصیرش را گردن سیستم رایانهای بیاندازیم. این همان «اثر بهینهسازی» است که پیامدهای ناخواستهاش هماکنون نیز بر مردم عادی سراسر دنیا اثر میگذارد. همینجا دوباره میگویم که این نکته باید پرسشی را پیش بیاورد که مستی را از سرمان بپراند: میلیاردها تفاوت ظریف فرهنگی، دینی، سیاسی، جنسی و اخلاقیِ آدمیان چگونه بهینهسازی میشود؟ بدون دستورالعملی مبتنی بر ارزشهای انسانگرایانه، وقتی هوش مصنوعی برای کسی بهینهسازی میشود که اصلاً شبیه شما نیست، چه میشود؟
اطلاعات کتابشناختی:
Webb, Amy. The Big Nine: How the Tech Titans and Their Thinking Machines Could Warp Humanity. Hachette UK, 2019
پینوشتها:
• این مطلب را ایمی وب نوشته است و در تاریخ ۲۳ فوریه ۲۰۱۹ با عنوان «An NYU professor explains why it's so dangerous that Silicon Valley is building AI to make decisions without human values» در وبسایت بیزنس اینسایدر منتشر شده است. وبسایت ترجمان آن را در تاریخ ۱۸ آذر ۱۳۹۸ با عنوان «هوش مصنوعی اشتباه نمیکند، برای همین باید از آن ترسید» و ترجمۀ محمد معماریان منتشر کرده است.
•• ایمی وب (Amy webb) آیندهپژوه، نویسنده و بنیانگذار مؤسسه تحقیقاتی آیندهامروز است. وب در دانشگاه نیویورک تدریس میکند و آخرین کتاب او نُه غول: چطور غولهای تکنولوژی و ماشینهای اندیشندۀ آنها ممکن است انسانیت را زیر و رو کنند؟ (The Big Nine: How the Tech Titans and Their Thinking Machines Could Warp Humanity) نام دارد.
[۱] Thinking, Fast and Slow