۱۰ سناریو ترسناک که هوش مصنوعی همین حالا میتواند رقم بزند
با اینکه استفاده از هوش مصنوعی منافع بسیاری برای جامعه انسانی بهارمغان میآورد، اما این فناوری تهدیدات و مخاطرات زیادی نیز به همراه دارد و میتواند سناریو های ترسناکی را رقم بزند.
هوش مصنوعی را میتوان به یک اسب وحشی تشبیه کرد که بیوقفه در مسیر پیشرفت جلو میرود. روند توسعه این فناوری با چنان سرعتی پیش میرود که حتی متخصصان این علم نیز نمیتوانند با آن همگام شوند.
چند سال پیش، ابزار مبتنی بر هوش مصنوعی صرفاً ابزاری ایجاد شده از روی کنجکاوی متخصصان و تولیدکنندگان بودند، اما در دنیای امروز، این فناوری بهقدری پیشرفت کرده است که تمامی مقالات (حتی این مقاله!) را میتوان با ابزار هوش مصنوعی نوشت.
در حال حاضر، مایکروسافت نسخهای از GPT-۴ OpenAI را در بینگ گنجانده، از طرف دیگر گوگل رقیبی بهنام Bard را راهاندازی کرده است. این فناوریهای جدید پتانسیلی باورنکردنی برای متحول کردن زندگی ما دارند و میتوانند سناریوهایی را رقم بزنند که داستانهای علمی تخیلی تنها رویای آن را داشتند!
حتی خود هوش مصنوعی نیز با این موضوع موافق است و اگر از ChatGPT در مورد آینده فناوری بپرسید، به شما میگوید که هوش مصنوعی جهشهای عظیمی را به سمت یک تحول شگفتانگیز پیش خواهد برد.
مانند هر فناوری دیگر، در این تکنولوژی نیز خطرات پنهانی وجود دارد که احتمالاً هنوز برخی از آنها را درک نکرده یا حتی تصور نکردهایم. در حال حاضر حتی اگر هر شرکت فناوری تلاش برای پیشرفت فناوریهای هوش مصنوعی خود را متوقف کند، آن فناوریها میتوانند مشکلات وحشتناک زیادی را در شکل فعلیشان ایجاد کنند.
از دیپ فیک گرفته تا دستکاری در بازار سهام و جنگهای بینالمللی، در این مقاله ۱۰ سناریو ترسناک که هوش مصنوعی همین حالا میتواند رقم بزند را بررسی خواهیم کرد.
۱. هوش مصنوعی میتواند کنترل غولهای فناوری و دولتها را بر زندگی ما افزایش دهد
گوگل، فیسبوک و دیگر غولهای فناوری سالهای زیادی را صرف مطالعه در مورد عادتها و تمایلات کاربران کردند تا با تحت تاثیر قرار دادن احساسات آنها درآمد بیشتری کسب کرده و منافع بیشترب به دست آورند.
اکنون که هوش مصنوعی بالاخره بهعنوان بخشی از زندگی روزمره ما وارد عرصه تکنولوژی شده است، قابلیتهای آن تنها شرکتهایی را تقویت میکند که میخواهند برای منافع خود تأثیر بیشتری بر زندگی ما داشته باشند.
از تبلیغات گرفته تا خانههای هوشمند که میتوانند عادات زندگی ما را بررسی کنند، هوش مصنوعی اکنون قادر است حتی حریم خصوصی ما را بر هم بزند. در همین حال، دولت ایالات متحده علاقه بیشتری به مخفی کردن فناوریهای بزرگ پیدا کرده و ابزار مبتنی بر هوش مصنوعی را مجبور میکند دادههای خصوصی کاربران را تحویل دهند.
جهشهای عظیمی که امروزه در فناوری ChatGPT مشاهده میشود ممکن است سبب ایجاد ناهنجاری شود. حتی این احتمال نیز وجود دارد که این برنامه با اهدافی فراتر از حد تصور ما توسعه داده شده باشد.
در هر صورت، تمامی ابزارهای مبتنی بر هوش مصنوعی قادر به ایجاد آسیبهای ملموس در مقیاس گسترده هستند و با وجود بهرهمندی از قابلیتهای چشمگیر آنها، باید خطراتی که ممکن است از طرف آنها ما را تهدید کند بشناسیم.
۲. دیپفیکها میتوانند به انتشار اطلاعات نادرست سیاسی منجر شوند
دیپ فیک (DeepFake) یک فناوری جدید مبتنیبر هوشمصنوعی است که در محتوای صوتی و تصویری دست برده و آن را بهصورت دلخواه و حتی متفاوت از واقعیت تغییر میدهد. در حال حاضر، مدلهای هوش مصنوعی موجود میتوانند هر تصویر یا صدایی را تولید کنند و به طور فزایندهای قادر به تولید کلیپهای ویدیویی هستند.
با این قابلیت، این فناوری شرایط لازم را برای یک فرد سواستفادهگر مهیا میکند تا یک اتهام نادرست را علیه یک دشمن سیاسی مطرح کند. سیل اطلاعات نادرست سیاسی تولید شده توسط هوش مصنوعی میتواند بر سرنوشت کشورها و دولتها تاثیر بسیاری بگذارد.
در چند هفته گذشته، پس از اینکه AI Midjourney یک بهروزرسانی جدید منتشر کرد، عکسهایی بهطور گسترده منتشر شدند که نمونهای از اثر مخرب دیپ فیک را بهنمایش میگذارند. از جمله تصاویر منتشر شده توسط این فناوری میتوان به تصویر پاپ با پوشش خوانندههای رپ و تصویر دونالد ترامپ که توسط پلیس دستگیر شده است اشاره کرد.
تمام کاربران آگاه هستند که هر دو تصویر بهعنوان شوخی ساخته شدهاند. با این حال، بسیاری از کاربران آنها را بدون بهرهمندی از زمینههای اصلی تصاویر، در رسانههای اجتماعی منتشر کردند.
هوش مصنوعی در حال حاضر به قدری مستعد خطاست که نیازی نیست اطلاعات غلطی که تولید میکند عمدی باشد تا مردم را گیج کند. چند وقت پیش از ChatGPT بهدلیل افترا در استرالیا شکایت شده است (چت بات به دروغ یک سیاستمدار ملبورنی را به فساد متهم کرده بود).
مهمترین خطر در اینجا صرفاً انتشار گسترده تصاویر ساختگی در بین مردم نیست، بلکه این است که ما وارد دنیای جدید و عجیبی خواهیم شد که در آن هیچ عکس، ویدیو یا ضبط صوتی قابل اعتماد نخواهد بود.
سیاستمداران و سایر مقامات ممکن است هرگونه شواهد مبنی بر انجام اشتباه را بهبهانه جعلی بودن سند رد کنند. از طرف دیگر روزنامهنگاران ممکن است در ثبت و انتشار اخبار دچار خطاهای بزرگ شوند.
۳. هوش مصنوعی میتواند تغییرات اقلیمی را تسریع بخشد
در چند دهه اخیر، جامعه انسانی بیشاز هر زمان دیگری با تهدید تغییرات آب و هوایی مواجه بوده و زمان ما برای کنترل انتشار کربن دی اکسید در هوا قبل از وقوع بدترین حادثه رو به اتمام است.
هوش مصنوعی با توانایی درک اطلاعات پیچیده و متفاوت، میتواند ابزاری حیاتی در ابداع راهحلهای جدید برای جلوگیری از وقوع بدترین فاجعه باشد.
در حال حاضر، این تکنولوژی میتواند با شناسایی شیوههای نادرست و خودکارسازی مصرف انرژی، به کارآمدتر کردن کل شرکتها در مصرف انرژی کمک کند. در همین حین، هوش مصنوعی میتواند سرعت نابودی زمین را حتی بیشتر کند!
هوش مصنوعی ممکن است به ما در حفظ منابع کمک کند، اما از مقادیر زیادی انرژی برای عملکرد خود استفاده میکند. همانطور که مدلهای هوش مصنوعی پیشرفتهتر میشوند، مصرف انرژی آنها نیز افزایش مییابد.
برخی از مدلهای فعلی هوش مصنوعی دقیقا بهاندازه منابع پرمصرف، انرژی مصرف میکنند. بنابراین قبلاز پذیرش روند رو به رشد توسعهی هوش مصنوعی، باید سناریو های ترسناک که هوش مصنوعی میتواند رقم بزند را پیشبینی کرده و با روشهای کارآمدتری به مقابله با تغییرات اقلیمی بپردازیم.
۴. هوش مصنوعی میتواند موتورهای جستجو را از رده خارج کند
بهنظر میرسد با پیدایش ChatGPT، دیگر دوران موتورهای جستجو به پایان رسیده است. این بات با قابلیت نوشتن ایمیل، مقاله، شعر، دستیار مجازی، پاسخگویی به سؤالات و حتی نگارش کدهای برنامهنویسی، میتواند جایگزین بسیاری از فناوریها از جمله موتورهای جستجو شود.
مدتی است که بینگ مایکروسافت با ادغام نسخهای از چت GPT در موتور جستجوی خود، تیتر خبرها شده. شرکتهای فعال در این حوزه بر این باورند که هوش مصنوعی آیندهی سرچ اینترنتی است. اما باید این نکته را نیز در نظر گرفت که این تکنولوژی میتواند به همان اندازه پایان کار موتورهای جستجو باشد.
وبسایتهایی که برای درآمد تبلیغاتی به بازدید از صفحه متکی هستند، با روی کار آمدن هوش مصنوعی ممکن است محتوای خود را توسط رباتهایی که اطلاعات را مستقیماً به کاربران ارائه میدهند غارت شده ببینند و جریان درآمد اولیه آنها قطع شود. این امر منجر به فروپاشی گسترده بازار تبلیغات دیجیتال میشود.
حتی اگر عملکرد اصلی موتورهای جستجو در طول این تغییر دست نخورده باقی بماند، هوش مصنوعی مولد ممکن است همچنان آنها را تبدیل به ابزاری بیفایده کند.
سایتهای کوچکتر اولین سایتهایی هستند که پس از تسلط هوش مصنوعی در این عرصه سقوط میکنند، اما غولهای فناوری مانند فیسبوک میتوانند با آنها همراه شده و سود بیشتری کسب کنند.
سریدار رامازوارمی، استارتاپ موتور جستجوی نیوا و سرپرست سابق بخش تبلیغات گوگل در مورد استفاده از قابلیتهای هوش مصنوعی در موتورهای جستجو گفت:
نمیتوان توانایی بینظیر مدلهای زبانی و هوش مصنوعی در جستجوی اطلاعات و پاسخدادن به سؤالات بهگونهای که قبلاً امکانپذیر نبوده است را نادیده گرفت. بهرهمندی این ابزار از این قابلیتها میتواند سرچ اینترنتی در فضای وب را برای کابران هیجانانگیز کند. بهعقیدهی من، در آیندهای نزدیک تمام شرکتهای فعال در این عرصه با روشهای گوناگون زمینه استفاده از چنین قابلیتهایی را فراهم خواهند کرد.
۵. هوش مصنوعی میتواند اینترنت را غیرقابل استفاده کند
پس از اینکه ابزار مبتنی بر هوش مصنوعی تسلط کامل موتورهای جستجو را بهدست گرفتند، این مدلها متن جدیدی را که ظاهراً متعلق به خودشان است، بیرون میدهند.
با وجود متنهای جدید هوش مصنوعی، طولی نخواهد کشید که بیشتر فضای اینترنت با متنهای تصادفی پر شود. نیل کلارک، سردبیر مجله علمی تخیلی معروف Clarkesworld، قبلاً شاهد افزایش چشمگیری در ارسال داستانهای تولید شده توسط هوش مصنوعی بوده که او را مجبور کرده است داستانهای بیشماری را که توسط ماشینها نوشته شدهاند بررسی کند.
حتی در حال حاضر نیز اینترنتگردی بدون مواجهه با رباتها و هرزنامههای سئو، همراه با متنهای بیمعنایی که توسط انسانهای واقعی تولید میشود، بهاندازه کافی سخت است.
حال اگر بینهایت متن تولید شده هوش مصنوعی را به آن ترکیب اضافه کنید، پیدا کردن مطلب مورد نظر با محتوای باارزش بهقدری دشوار میشود که کل اینترنت را اساساً بهمحیطی غیرقابل استفاده تبدیل میکند.
متیو کرسچنبام، استاد مطالعات دیجیتال در دانشگاه مریلند، در مورد این سناریو ترسناک که هوش مصنوعی میتواند رقم بزند هشدار میدهد و مینویسد: «همه این پدیدهها، ارزش محتوای تولید شده در اینترنت را بهخطر میاندازند و سرورها، کابلهای مخابراتی و مراکز دادهها را مسدود میکنند.»
۶. محتوای تولید شده توسط هوش مصنوعی میتواند به سلامت افراد آسیب بزند
یکی از مهمترین مسائل در مورد مدلهای زبان کنونی، گرایش آنها به تولید چیزی است که «توهم» نامیده میشود. این حالت زمانی اتفاق میفتد که هوش مصنوعی اطلاعات نادرستی را در قالب پاسخی برای سرچ کاربران ارائه میدهد.
برای مثال، ChatGPT ویژگیهایی برای یک مدل تلفن خاص معرفی میکند که در واقع آن مدل فاقد قابلیتهای ذکر شده است. این نوع اطلاعات آسیب چندانی به مخاطب نمیزنند، اما برخی از پاسخهای ارائه شده توسط این تکنولوژی بیخطر نیستند و اگر کاربر توصیههای هوش مصنوعی را بپذیرد، میتواند منجر به آسیب واقعی شود.
تصور کنید محتوای ارائه شده توسط یک ابزار هوش مصنوعی مدت زمان سالم ماندن غذایی همچون مرغ پخته شده در دمای خانه را یک هفته اعلام کند؛ در این حالت اگر کاربر به این محتوا اعتماد کند، در معرض مسمومیت غذایی قرار خواهد گرفت.
یا حتی وحشتناکتر؛ اگر کسی در مورد میل به خودکشی با یک چت بات هوش مصنوعی صحبت کند، ممکن است به دلیل یک اشتباه، چت بات فرد را بهانجام این کار تشویق کرده و این خطای ساده ممکن است به غم انگیزترین نتایج منجر شود.
اگر خوشبینانه به این موضوع نگاه کنیم، میتوان تصور کرد که هیچکس کورکورانه به یک هوش مصنوعی اعتماد نمی کند، اما بازهم نمیتوان با اطمینان کامل در مورد عدم تاثیر متن تولید شده توسط این ابزار بر روی افکار مردم صحبت کرد.
مدت زمان زیادی نیاز است که عموم مردم متوجه شوند مدلهای فعلی هوش مصنوعی چقدر مستعد خطا هستند و میتوانند مضر واقع شوند. برخی افراد خاص مانند سالمندان یا افراد دارای ناتوانیهای شناختی، ممکن است بهویژه مستعد پذیرش محتوای تولید شده توسط ابزاری همچون ChatGPT باشند.
۷. رباتهای ترید هوش مصنوعی میتوانند بازار سهام را از بین ببرند
با توانمند شدن سیستمهای هوش مصنوعی، بازار سهام شاهد رشد گستردهای در معاملات رباتها بوده است. این رباتها از الگوریتمهای پیچیده برای شرطبندی روی سهام و خرید و فروش از طرف مشتری خود براساس نوسانات بازار استفاده میکنند.
درحال حاضر بسیاری از شرکتهای فعال در بازار سهام در سراسر جهان، از حوزه هوش مصنوعی کسب درآمد میکنند و برآورد میشود ارزش بازار هوش مصنوعی تا ۲ سال دیگر به حدود ۱۶ میلیارد دلار خواهد رسید. فروش جهانی رباتهای هوش مصنوعی برای فعالیت در شرکتها به جای نیروی کار نیز بهطور فزایندهای در حال افزایش است.
بهدلیل پیچیدگی و در نتیجه غیرقابل پیشبینی بودن مدلهای فعلی، در صورت استقرار آنها توسط معاملهگران، رباتهای مبتنی بر هوش مصنوعی به راحتی میتوانند شوکهای عظیمی را به بازار وارد کنند.
به عنوان مثال، تصور کنید که بسیاری از معاملهگران از یک پلتفرم هوش مصنوعی استفاده میکنند که در تصمیمگیری دچار خطاست. این ابزار میتواند بهاشتباه سهام یک شرکت درحال سقوط را برای همه کاربران خود خریداری کرده و بازار را به آشوب بکشد.
در حالی که این یکی از سناریوهای بسیار بعید است، اما بدون شک در صورت استقرار مدلهای هوش مصنوعی در این حوزه، برخی از فعالان برای کسب سود بیشتر از خطای هوش مصنوعی سواستفاده میکنند.
۸. هوش مصنوعی میتواند به دستگاههای اجرایی و روند اجرای قانون نفوذ کند
در فیلم «گزارش اقلیت»، یک اداره پلیس با تکیه بر موجوداتی که میتوانند آینده را ببینند، افراد را قبل از ارتکاب جرم دستگیر میکند. بدیهی به نظر میرسد که چنین سناریویی از نظر اخلاقی وحشتناک خواهد بود و منجر به دستگیریهای نادرست بسیاری میشود.
با این حال، برخی از واحدهای اجرایی از وجود همچین قابلیتی بسیار استقبال میکنند. امروزه اگر شما در ایالات متحده بهجرمی متهم شوید، سرنوشت شما توسط رایانه در بسیاری از حوزههای قضایی تعیین میشود.
همانطور که توسط بررسی فناوری MIT اشاره شده است، اینکه آیا در وهله اول پلیس در محل برای دستگیری حاضر است یا خیر، توسط برنامهای به نام PredPol تعیین میشود. این برنامه همچنین تلاش میکند براساس دستگیریهای قبلی، احتمال وقوع جرم را پیشبینی کند.
هنگامی که یک مظنون متهم شد، دادگاهها از ابزاری بهنام COMPAS برای تعیین آزادی پیشاز محاکمه و مجازات استفاده میکنند. پروژه مارشال نشان داد پلیس همچنین از فناوری تشخیص چهره با سرعت رو به رشدی استفاده میکند.
این ابزارهای موجود میتوانند منجر به نرخ بالای بازداشت پیش از محاکمه و صدور احکام شدیدتر شده و تفاوتهای نژادی و جنسیتی را در سیستم قضایی افزایش دهند. اما اکنون، قوانینی برای جلوگیری از استفاده از ابزار مبتنی بر هوش مصنوعی وجود ندارد و خود این فناوری تهدید میکند که نقشی فزاینده در اجرای قانون ایفا خواهد کرد.
۹. تعصب در مدلهای هوش مصنوعی میتواند منجر به نابرابری بیشتر شود
در سال ۲۰۱۴، آمازون یک ابزار هوش مصنوعی برای کمک به استخدام ساخت. این برنامه یک وظیفه ساده داشت: بررسی درخواستهای شغلی و انتخاب بهترین نامزدها. اما در سال ۲۰۱۵، غول تجارت الکترونیک متوجه شد که این برنامه نسبت به نامزدهای مرد متعصبانه عمل میکند!
آمازون این برنامه را در سال ۲۰۱۸ متوقف کرد. استخدام ناموفق هوش مصنوعی تنها نمونهای از تعصباتی است که بر هوش مصنوعی از طریق مجموعه دادههای آموزشی آن تأثیر میگذارد.
تبعیض یکی از بزرگترین و شناخته شدهترین سناریو های ترسناک است که هوش مصنوعی میتواند رقم بزند و اجتناب از آن بسیار سخت است. شرکتهایی مانند OpenAI سعی کردهاند این مشکل را با تجهیز ChatGPT به دستورالعملهای خودسانسوری برطرف کنند.
با این حال، ساختن ربات چت بهصورت نژادپرستانه هنوز امکانپذیر است. از آنجایی که این فناوری در آینده راه خود را به محصولات متعدد دیگری باز میکند، نمیتوان گفت که تعصبات ریشهای چگونه بر عملکرد آن تأثیر میگذارد.
بهعنوان مثال، همانطور که گفته شد نیروهای پلیس مشتاق هستند تا از هوش مصنوعی برای اهداف اجرای قانون استفاده کنند. اما شکست استخدام آمازون ممکن است هشداری برای بدتر شدن اوضاع در آینده شود.
۱۰. هوش مصنوعی میتواند منجر به درگیری بینالمللی شود
تاثیر هوش مصنوعی بر سیاست یک کشور به اندازه کافی میتواند مخرب باشد. حال تصور کنید که کشوری مانند روسیه یک ویدیوی جعلی از رئیس جمهور اوکراین بسازد که در آن ولودیمیر زلنسکی به مردم خود دستور تسلیم بدهد!
اگرچه به نظر میرسد محتواهای اینچنینی نمیتوانند تاثیر زیادی بر وضعیت کشورها داشته باشند، اما گزارشها منعکسکننده چیز دیگری هستند.
گزارشی از موسسه بروکینگز در مورد دیپفیکها و درگیریهای بینالمللی هشدار میدهد که از دیپ فیک میتوان برای طیف وسیعی از اهداف، از جمله جعل دستورات رهبران نظامی، ایجاد سردرگمی در میان مردم و نیروهای مسلح، و مشروعیت بخشیدن به جنگها و قیامها استفاده کرد.
اگرچه این گزارش اشاره میکند که بیشتر این تلاشها احتمالاً شکست خواهند خورد، اما حتی یک موفقیت میتواند ثبات نظم بینالمللی را ویران کند.
منبع: گجت نیوز