ChatGPT و دیگر بسترهای هوش مصنوعی مولد (Generative AI) با توجه به برخورداری از پتانسیل لازم برای فاش نمودن اطلاعات محرمانه و حساس شخصی و شرکتی یک تهدید بلند مدت برای جوامع مختلف به شمار میروند. بر طبق جدیدترین گزارش منتشر شده توسط Team8 که یک کمپانی اسرائیلی فعال در حوزه امنیت سایبری، داده و فناوری به شمار میرود، زمانی که شرکتها و صاحبان تشکیلات فناوری هوش مصنوعی مولد را در کسب و کار خود مورد استفاده قرار میدهد، درهای احتمالات درز پیدا کردن دادههای حساس و شخصی کاربران محصولات و همچنین کدهای منبع، مالکیت معنوی و نکات مربوط به تجارت را نیز به روی خود میگشایند!
این گزارش به شانس بالای به اشتراکگذاری دادهها با اشخاص سوم شخص نیز اشاره داشته است که شدت و غیرقابل پیشبینی بودن آن با اقتباس گسترده فناوریهای هوش مصنوعی مولد در کسب و کارهای گوناگون پیوسته رو به افزایش است. ازآنجاییکه تعبیهسازی تکنولوژی GenAI در کاربردهای اول شخص و سوم شخص مختلف رو به افزایش است، احتمال اشتراک دادهها و اطلاعات حساس نیز به همان نسبت روندی صعودی را طی خواهد کرد. صرفنظر از نشت داده، این فناوری توسط مهاجمان برای اهداف سودجویانه همچون حملات فیشینگ، مهندسی اجتماعی، فریب و دیگر فعالیتهای بدخواهانه نیز میتواند مورد استفاده قرار گیرد. افزون بر این، سرعت نوشتن برنامههای مخرب و بهینگی آنها نیز افزایش پیدا خواهد کرد. فراهم آوردن قابلیت دسترسی بدون مجوز به ایمیلها و مرورگرهای اینترنتی نیز بهعنوان یکی دیگر از تهدیدهای بسترهای هوش مصنوعی مولد همچون ChatGPT عنوان شده است. در این حالت فرد مهاجم میتواند به نیابت از کاربر فعالیتهای مخرب خود را به انجام برساند.
این خطرات بر اهمیت اجرای اقدامات احتیاطی لازم همچون اولویتبندی ملاحظات امنیتی و حریم خصوصی و انجام ارزیابیهای کامل از پیامدهای احتمالی پیش از ادغام هوش مصنوعی با بسترهای کسب و کار تأکید میکنند.
منبع: Gizmochina