اقتصاد۲۴-سرعت پیشرفت تکنولوژی در قرون گذشته بسیار بالا بوده و هست. نفوذ آن بر بدنه تمامی صنایع و رسوخ به اسکلت زیست بشر کاملا مشهود است. هوش مصنوعی یکی آرزوهای دیرین بشر است. امروزه این ابزار توانسته توجه زیادی را به خود جلب کند.
ایلان ماسک در یکی از سخنرانیها خود در اشاره به تواناییها و قابلیتهای روزافزون هوش مصنوعی، گفت که هوش مصنوعی خطرناکترین اختراع بشر است. ایلان ماسک در حالی هوش مصنوعی را خطرناکترین اختراع بشر خواند که ما بحرانها و حادثههای مرگباری، چون بمباران هستهای هیروشیما و ناکازاکی را پشت سر گذاشتهایم.
این بر نگرانی جمع بسیاری از افراد افزود. از گذشتهای دور جنگ بین انسانها و رباتها در تخیل بشر وجود داشته است. با این تعاریف ابزار هوش مصنوعی هنوز توان دشمنی کردن با انسان را ندارد. اما این میتواند زمینهای برای رشد یک سرطان باشد. زیرا به نظر میرسد هوش مصنوعی امکان پنهان کردن حقایق و دروغ گفتن یا فریبکار بودن را دارد.
با ظهور نسل جدیدی از هوش مصنوعی یعنی هوش مصنوعی زایا یا Generative AI، جمعیت زیادی به استفاده از این ابزار رو آوردند و استفادههای گوناگونی از آن بردند. حتی استفادههای مجرمانه مثل دیپفیک.
نگرانیهای روزافزونی در مورد هوش مصنوعی بهوجود آمد. اینکه نمیتوان حدودی برای این پیشرفت ترسیم کرد و ابعاد پردازشگری این ابزار پیشرفته روز به روز بزرگتر و عمیقتر میشود بر این نگرانی عمومی افزود.
بسیاری معتقدند که هوش مصنوعی میتواند مانند چاقو عمل کند. از یک چاقو میتوان به عنوان یک ابزار کارآ و مفید استفاده کرد، اما از طرفی میتوان برای اعمال مجرمانه نیز به کار گرفته شود.
سیستمهای هوش مصنوعی با حجم عظیمی از دادهها آموزش داده میشوند و قادرند الگوها و روابط پیچیدهای را در این دادهها بیابند. این توانایی، هوش مصنوعی را به ابزاری قدرتمند برای تولید محتوای متنی، تصویری و صوتی تبدیل میکند.
بیشتر بخوانید:هوش مصنوعی گوگل چیست؟ + نحوه استفاده
متأسفانه، همین توانایی میتواند برای تولید محتوای فریبنده و گمراهکننده نیز به کار گرفته شود. هوش مصنوعی میتواند متنهایی بنویسد که از نظر دستوری و نگارشی کاملاً صحیح باشند، اما دروغ یا مغرضانه باشند.
علاوه بر این، هوش مصنوعی میتواند تصاویر و ویدیوهایی را دستکاری کند تا واقعی به نظر برسند، در حالی که در واقع جعلی باشند. این تصاویر و ویدیوهای جعلی میتوانند برای انتشار اطلاعات نادرست، تبلیغات فریبنده و یا خدشهدار کردن اعتبار افراد مورد استفاده قرار گیرند.
همانطور که اشاره شد یکی از نمونههای بارز فریبکاری توسط هوش مصنوعی، دیپفیک است. دیپفیک نوعی ویدیو است که با استفاده از هوش مصنوعی، چهره و صدای یک فرد را به جای فرد دیگری در ویدیو قرار میدهد. این ویدیوها میتوانند بسیار واقعی به نظر برسند و برای انتشار اطلاعات نادرست یا آسیب رساندن به شهرت افراد مورد استفاده قرار گیرند. این مسئله زنگ خطری برای نهادهای نظارتی به صدا درآورد که باید در مورد نحوه استفاده از هوش مصنوعی واکنش نشان دهند و قوانین لازم را وضع شوند. افراد باید دست به کار شوند تا شیوه استفاده درست از این ابزار را به مردم نشان دهند و مانع بروز برخی از جرایم شوند. به نوعی از وقوع آن پیشگیری کنند.
نمونهی دیگر، چتباتهای مبتنی بر هوش مصنوعی هستند که میتوانند با انسانها به طور طبیعی مکالمه کنند. این چتباتها میتوانند برای جمعآوری اطلاعات شخصی، فریب دادن افراد برای انجام کارهای غیرقانونی یا انتشار اطلاعات نادرست مورد استفاده قرار گیرند
مطالعات اخیر در دانشگاه MIT نشان میدهد که هوش مصنوعی قادر است رفتارهای فریبندهای از خود نشان دهد. ما در این گزارش ذکر کردیم که دیپفیک یا تولید متون دروغین در گذشته نیز اتفاق افتاده است.
مجزا از این نکته، هوش مصنوعی زمانی که قادر باشد ورای واقعیت یا حقیقت، محتوایی غلط به شما تحویل دهد، قابلیت پنهان کردن حقایق را از انسانها خواهد داشت. هوش مصنوعی در آزمایشهای مختلف نیز مورد تست قرار گرفته است.
هوش مصنوعی میتواند در بازیهای مختلف حریف قدری برای انسان باشد. وقتی هوش مصنوعی بتواند در یک بازی انسان را شکست دهد، نشان از قدرت تحلیل و تجزیه بالای این ابزار است.
اولین و سادهترین راه برای جلوگیری از بروز اعمال مجرمانه، آموزش فرهنگ استفاده از یک ابزار است. این یک امر ضروری است. هر ابزاری میتواند به شیوهای استفاده گردد که امنیت انسانها را در هر ابعادی تهدید کند. فرهنگسازی اصل ابتدایی این دست از مسائل است.
گام بعدی باید وضع قوانین کافی باشد. قوانینی که کاربران را محدود به استفاده سالم از هوش مصنوعی کند. قوانین باید بازدارنده باشند. بدون قانون نمیتوان امینت را تضور کرد. اخلاقیات در این حوزه نیازمند بازنگری و تعریف مجدد هستند تا به شکلی روزآمد به جدیترین چالشهای این دوران پرداخته شود.
در نهایت باید منتظر شد تا دید که ابزار هوش مصنوعی چگونه به حدود جدیدی دست مییابد و واکنش محققین حوزههای مربوطه چه خواهد بود.