در دنیای امروز، سلبریتیها و چهرههای شناختهشده، ابزاری قدرتمند برای تبلیغات و جلب توجه برندها محسوب میشوند. اعتبار و محبوبیتی که این افراد دارند، میتواند تأثیری به مراتب فراتر از یک کمپین تبلیغاتی گسترده داشته باشد. با این حال، حفظ این اعتبار و انتخاب شرکای تجاری مناسب، از اهمیت بالایی برخوردار است، چرا که این چهرهها معمولاً در انتخاب همکاریهای خود بسیار دقیق هستند. به همین دلیل، اخیراً بسیاری از طرفداران تیلور سوئیفت، خواننده پرآوازه، با دیدن تبلیغی از او در پلتفرم تیکتاک برای طرحی با عنوان «کسب درآمد سریع» متعجب شدند. این اتفاق، زنگ خطری جدی درباره سوءاستفاده از چهره افراد مشهور با استفاده از فناوریهای نوین، بهخصوص هوش مصنوعی، محسوب میشود.
برای بخش قابل توجهی از کاربران هوشمند اینترنت، چنین تبلیغاتی به وضوح بوی فریب و کلاهبرداری میدهد. با این حال، متأسفانه، کلاهبرداران توانستهاند با سوءاستفاده از حس اعتماد ناشی از حضور چهرههای محبوب، اطلاعات شخصی برخی کاربران را به دست آورند. با افزایش روزافزون کیفیت و پیچیدگی اینگونه کلاهبرداریها، تعجبی ندارد که تیلور سوئیفت و بسیاری از چهرههای سرشناس دیگر، به دنبال راههای قانونی برای مقابله با استفاده غیرمجاز از تصاویر دیپفیک خود باشند.
تشدید کلاهبرداریهای مبتنی بر هوش مصنوعی در تیکتاک
طبق گزارشی از شرکت Copyleaks که در زمینه تشخیص محتوای تولید شده با هوش مصنوعی فعالیت میکند، تصاویر و ویدیوهای جعلی از چهرههای شناختهشدهای همچون تیلور سوئیفت، آریانا گرانده و ریحانا، در حال تبلیغ طرحهای فریبکارانه کسب درآمد سریع هستند. این ویدیوهای تبلیغاتی که اغلب با عنوان «TikTok Pay» معرفی میشوند، ادعا میکنند که روشی آسان و سریع برای کسب درآمد از طریق ارائه بازخورد بر روی ویدیوها ارائه میدهند. در یکی از این ویدیوها، یک نسخه جعلی از ریحانا ادعا میکند: «شما فقط محتوا را تماشا میکنید و نظرات خود را میدهید.» همچنین، تیلور سوئیفت جعلی در ویدیویی دیگر کاربران را به ثبتنام تشویق کرده و اطمینان میدهد: «اگر صفحه برای شما باز شد، زیاد به آن فکر نکنید.»
این تبلیغات، که اغلب خدمات «بالقوه مخرب یا مشکوک» را تبلیغ میکنند، از فناوری دیپفیک بهره میبرند تا وانمود کنند که این چهرههای مشهور، صادقانه در حال معرفی طرحهای جدید کسب درآمد سریع هستند. هرچند که صدای هوش مصنوعی در این ویدیوها ممکن است اندکی مصنوعی به نظر برسد و جزئیات بصری نیز کاملاً بینقص نباشد، اما فیلترهای glitch-effect اعمال شده بر روی ویدیوها، به اندازه کافی مرموز هستند تا هرگونه ناهمگونی را پنهان کنند. با ترکیب این ویدیوهای دستکاری شده با محتوای اصلی گرفته شده از مصاحبهها یا مراسم فرش قرمز، و افزودن لوگوی تیکتاک، نوعی «اصالت» کاذب به محتوا داده میشود که منجر به اقدام برخی کاربران و اشتراکگذاری اطلاعات شخصی خود تحت عنوان ثبتنام در این طرحها میشود.
پیامدهای گستردهتر و راههای مقابله
این اولین بار نیست که چنین اتفاقی رخ میدهد. تنها در سال گذشته، شاهد انتشار ویدیوهای دیپفیک از تیلور سوئیفت بودیم که او را در حال تبلیغ قابلمههای Le Creuset نشان میداد؛ هدف از این تبلیغات نیز جمعآوری اطلاعات مخرب بود. با هوشمندتر شدن فناوری هوش مصنوعی، انتظار میرود که اینگونه کلاهبرداریها فراگیرتر شوند. اگرچه ابزارهایی مانند «Copyleaks AI image detector» و «تست سه انگشتی» (که برای تشخیص دیپفیکهای ویدیویی کاربرد دارد) وجود دارند، اما کاربران کماحتیاطتر همچنان در دام این تلهها گرفتار خواهند شد.
این روند، چالشهای جدیدی را برای سازندگان محتوا، پلتفرمهای آنلاین و خود چهرههای مشهور ایجاد میکند. اطمینان از اصالت هویت آنلاین و حفاظت از اعتبار برند شخصی، بیش از پیش اهمیت یافته است. همچنین، افزایش آگاهی عمومی در مورد قابلیتهای فریبنده هوش مصنوعی، نقشی حیاتی در پیشگیری از قربانی شدن افراد بیشتر ایفا خواهد کرد. کاربران باید همواره نسبت به پیشنهادات کسب درآمد سریع و غیرمنتظره، بهویژه در پلتفرمهای اجتماعی، محتاط باشند و قبل از ارائه هرگونه اطلاعات شخصی، تحقیقات کافی انجام دهند.
تحلیل تأثیرگذاری
این رویداد نشاندهنده یک نقطه عطف نگرانکننده در استفاده مخرب از هوش مصنوعی است. توانایی تولید محتوای جعلی متقاعدکننده با چهره افراد مشهور، ابعاد جدیدی از تهدیدات سایبری را آشکار میسازد. نه تنها حریم خصوصی و اعتبار افراد مشهور، بلکه امنیت مالی و اطلاعاتی کاربران عادی نیز در معرض خطر جدی قرار گرفته است. این موضوع، ضرورت توسعه و بهکارگیری فناوریهای پیشرفتهتر برای تشخیص دیپفیک و همچنین ایجاد چارچوبهای قانونی و نظارتی قویتر برای مقابله با سوءاستفاده از هوش مصنوعی را بیش از پیش نمایان میسازد. صنعت خودروسازی نیز باید به دقت تحولات این حوزه را دنبال کند، چرا که فناوریهای مشابه ممکن است در آینده برای اهداف فریبکارانه در این صنعت نیز مورد استفاده قرار گیرند.