از آنجاکه در چند وقت اخیر کسبوکارهای بیشتری به استفاده از هوش مصنوعی روی آوردهاند، آنها باید چارچوبها و قوانینی را ایجاد کنند که محدودیتها و خطرات ناشی از هوش مصنوعی مولد را بشناسند و آن را برطرف کنند. این مشکلات شامل تغییرات در عملکرد هوش مصنوعی، خروجیهای نادرست، خرابی مدلها است.
شرکتها در راستای رقابت با رقبای خود ابزارهای هوش مصنوعی مولد را به مجموعه فناوریهای مورد استفاده خود اضافه میکنند. با اینحال، بسیاری از سازمانها آماده نیستند که با چالشها و مشکلات ناشی از استفاده هوش مصنوعی کنار بیایند.
در یک مطالعه در مورد بهکارگیری هوش مصنوعی در کسبوکار در سال 2023، مشاهده شد بیش از 60 درصد از شرکتها از هوش مصنوعی در خط تولید و تخمین حداکثر میزان تولیدی بر اساس منابع در دسترس استفاده میکردند. اما متاسفانه، کمتر از 36 درصد آنها دستورالعمل و چارچوب مشخصی برای استفاده از هوش مصنوعی مولد داشتند.
هوش مصنوعی مولد چیست؟
هوش مصنوعی مولد به نوعی فناوری هوش مصنوعی اشاره دارد که برای تولید محتواهایی مانند متن، تصاویر یا حتی موسیقی طراحی شده است. برخلاف فناوری آشنای هوش مصنوعی که از قوانین از پیش برنامهریزی شده پیروی میکند، هوش مصنوعی مولد توانایی ایجاد و نوآوری بر اساس الگوهایی را دارد که بر اساس دادههای دریافتی آموزش میبینند. هوش مصنوعی مولد اغلب در برنامههای خلاقانه، تولید محتوا و حل مسئله استفاده میشود که در آن هوش مصنوعی میتواند خروجیهای جدید و متنوع تولید کند.
آشنایی با محدودیت و چالشهای هوش مصنوعی مولد
ابزارهای هوش مصنوعی مولد با دو محدودیت کلیدی روبرو هستند: محدودیت دامنه موضوعاتی که توانایی پاسخ به آنها را دارد و احتمال تولید خروجی اشتباه.
برنامهنویسان اغلب از مدلهای زبانی بزرگ (LLMs) برای بیشتر کردن قابلیتهای هوش مصنوعی مولد و موثرتر کردن آن استفاده میکنند. به این دلیل که مدلهای بزرگتر میتوانند الگوها و روابط پیچیده را بهتر درک کنند. متاسفانه با اینکه مدلهای زبانی بزرگ (Large Language Models) به قدری قدرتمند هستند که در چت جی پی تی ChatGpt استفاده میشوند، میتوانند خروجی نامطلوب و سردرگمکننده داشته باشند.
این بدان معنی است که آنها ممکن است اطلاعاتی را تولید کنند که دقیق یا واقعی نیستند، این اطلاعات خودساخته پیشبینی نشده نیاز کاربران را جهت دریافت اطلاعات دقیق و صحیح از هوش مصنوعی مولد میرساند. با اینحال، اگر قدرت مدل را به قدری محدود کنیم که دیگر توانایی تولید خلاقانه اطلاعات را نداشته باشد، از نظر کاربران دیگر مفید واقع نمیشود.
ریسک تولید و ایجاد مدل هوش مصنوعی خودساخته
ایجاد مدلهای هوش مصنوعی خودساخته توسط شرکتها به جای استفاده از مدلهای آماده میتوانند به دلیل دو مسئله مشکل ایجاد کنند: ظرفیت هوش مصنوعی و پایداری مدلها (مدت زمانی که یک مدل برای عمل موردنظر موثر و مرتبط بماند) برای ساخت یک ابزار هوش مصنوعی قدرتمند با استفاده از مدلهای زبان بزرگ (LLMs) ، ممکن است به پول زیاد و همچنین تجهیزات و منابع گرانقیمت و متنوعی نیاز داشته باشید. به علاوه، بهروز نگهداشتن هوش مصنوعی در طول زمان نیز میتواند یک چالش بزرگ باشد.
پس از ایجاد این ابزارها، آنها به بهروزرسانیهای منظم نیاز دارند که میتواند گران تمام شود و به هزینه منابع اضافه شود. در عوض، آنها باید بتوانند خودشان را بهطور خودکار بهروز کنند. با اینحال ، این یادگیری مستقل خطراتی را به همراه دارد. این مدل ممکن است از حالت مورد نظر خود خارج شود به مدلی تبدیل شود که کمتر مفید یا حتی خطرناک میباشد، مانند ایجاد یا تولید اطلاعات گمراهکننده و نادرست.
نقطه ضعف دیگر مدل هوش مصنوعی
ریسک دیگر مدلهای هوش مصنوعی، نقصهای گاهبهگاه آنها در تفکر منطقی است. با بهبود این مدلها و قابلیت تولید خروجی بهتر، تشخیص این خطاها پیچیدهتر میشود. به عنوان مثال، ابزاری جهت پیشنهاد و تهیه دستور پخت برای یک فروشگاه زنجیرهای طراحی شده بود و مواد غذایی را پیشنهاد میکرد که ترکیب آنها برای سلامتی انسان مضر بود، اگرچه برای اکثر مردم تشخیص این موضوع راحت است، اما برای کودکان میتواند یک خطر بزرگ باشد.
3 خطر احتمالی هنگام استفاده از هوش مصنوعی مولد
هوش مصنوعی مولد سه نوع خطر تهدیدکننده دارد: عملکردی، عملیاتی و قضایی.
1. عملکرد هوش مصنوعی مولد
خرابی مدلها: این اتفاق زمانی رخ میدهد که یک مدل هوش مصنوعی به آرامی تاثیر خود را از دست میدهد، زیرا با اطلاعات جدیدی که باید بداند مطابقت ندارد. برای رفع این مشکل، مدل باید با استفاده از دادههای بهروز شده دوباره آموزش داده شوند، گرچه این موضوع میتواند گران و زمانبر تمام شود.
مسمومیت دادهها: زمانی اتفاق میافتد که یک فرد نفوذگر، مانند یک شرکت رقیب، عمدا دادههای مورد استفاده برای آموزش یک مدل هوش مصنوعی را دستکاری کند. آنها ممکن است اطلاعات را در طول فرآیند آموزش قبل از انتشار مدل خراب کنند.
2.چالشهای عملیاتی هوش مصنوعی مولد
خطرات عملیاتی آنهایی هستند که میتوانند عملکرد یک شرکت را مختل کنند.
اقدامات گمراهکننده: این مشکل زمانی بوجود میآید که یک شرکت به توصیهها و راهکارهای نادرست هوش مصنوعی گوش دهد، آن را دنبال کند یا از خروجی یک مدل که خراب شده است استفاده کند. در اثر این موضوع منابع بسیاری هدر رفته و افراد زیادی گمراه میشوند. در واقع، به جای دنبال کردن استراتژیهای سالم، شرکت ممکن است در نهایت منابع را هدر داده و فرصتهای بهتر را از دست بدهد.
3.مشکلات قضایی
خطرات قانونی زمانی رخ میدهد که استفاده از هوش مصنوعی مولد یک سازمان را در معرض مشکلات حقوقی یا اقدامات مدنی و جنایی قرار دهد.
اطلاعات نادرست: اگر هوش مصنوعی یک سازمان، به افرادی که از آن استفاده میکنند اطلاعات غلط و ناقص را منتقل کند تا در نتیجه آن به او ضرر یا آسیبی برسد، میتواند منجر به مشکلات حقوقی شود. اطلاعات غلط در هوش مصنوعی، بهویژه هنگام ارزیابی اسنادی مانند درخواست وام و رزومه ممکن است منجر به جریمه، مجازات و آسیب به شهرت سازمان شود.
نگرانیهای مربوط به حق چاپ: استفاده از هوش مصنوعی مولد ممکن است خطر نقض قوانین کپی رایت را در پی داشته باشد. همچنین، اگر ابزارهای هوش مصنوعی اطلاعات شخصی را به اشتراک بگذارند، میتوانند منجر به دادخواست، مجازات و آبروریزی سازمان شود.
نتیجهگیری
در حالی که استفاده از هوش مصنوعی مولد فرصتهای ویژهای را برای صنایع مختلف به ارمغان میآورد، با چالشهای قابل توجهی همراه است. مسائلی مانند خرابی مدل و مسمومیت دادهها نیاز به توجه دقیق و بهکارگیری منابع برای جلوگیری از مشکلات دارند. موانع عملیاتی مانند اقدامات گمراهکننده و استفاده ضعیف از منابع، اهمیت اجرای متفکرانه و نظارت مداوم را برجسته میکند. در مورد خطرات حقوقی، از جمله ارائه اطلاعات غلط و مشکلات احتمالی حق چاپ، سازمانها باید با دقت در مسائل حقوقی حرکت کنند. با اینحال، شانس مدیریت این خطرات با تعیین دستورالعملهای روشن، بررسی منظم نتایج و خروجیهای تولید شده هوش مصنوعی و درگیر کردن تیمهای مختلف IT وجود دارد. ایجاد تعادل بین نوآوری و مدیریت دقیق بسیار مهم است زیرا سازمانها از هوش مصنوعی مولد، در دنیای امروزی بهطور فزایندهای استفادهمیکنند.