ویدئویی در TikTok به نظر میرسد که نشان میدهد اینفلوئنسر YouTube MrBeast 10000 تلفن iPhone 15 Pro را با قیمت ۲ دلار به دنبالکنندگان ارائه میدهد.
از بیرون آوردن کارت اعتباری خود خسته نباشید، زیرا این ویدیو یک دیپ جعلی تولید شده توسط هوش مصنوعی بود که به نوعی از نظارت محتوای TikTok طفره رفت.
MrBeast، که نام اصلی او جیمی دونالدسون است، با ۱۸۹ میلیون مشترک در کانال خود، بر YouTube مسلط است. ویدیوهای او بسیار افتضاح هستند و او را در حال انجام کارهایی مانند هدیه دادن یک جزیره ۸۰۰ هزار دلاری یا ۱ میلیون دلاری است که کاربران باید در یک دقیقه خرج کنند.
بنابراین شما میبخشید که برای مدت کوتاهی فکر میکنید که او کار احمقانهای مانند هدیه دادن ۱۰۰۰۰ آیفون انجام میدهد. پیش پرداخت ۲ دلاری باید به این نکته اشاره می کرد که این یک کلاهبرداری بود.
این ویدیو کمی پر زرق و برق بود، اما ظاهر و صدای آن دقیقاً شبیه MrBeast است، بنابراین احتمالاً قبل از اینکه TikTok در نهایت آن را حذف کند، بسیاری از مردم را فریب داده است.
بسیاری از مردم این تبلیغ کلاهبرداری عمیق از من را دریافت می کنند… آیا پلتفرم های رسانه های اجتماعی برای مقابله با افزایش دیپ فیک های هوش مصنوعی آماده هستند؟ این یک مشکل جدی است pic.twitter.com/llkhxswQSw
— MrBeast (@MrBeast) ۳ اکتبر ۲۰۲۳< /a>
TikTok یک فرآیند تأیید برای ثبت نام های جدید حساب و خط مشی های تعدیل محتوا دارد، اما هیچ یک از آن ها این تبلیغ جعلی را نگرفتند. یکی از کامنتهای توییت MrBeast گفت: «تایید شدن در TikTok به آسانی چرت زدن است».
MrBeast پرسید: «آیا پلتفرمهای رسانههای اجتماعی برای مقابله با افزایش دیپفیکهای هوش مصنوعی آماده هستند؟» و پاسخ واضح این است که نه، نیستند.
فقط در هفته گذشته هوش مصنوعی را دیدیم دیپ فیک تام هنکس در یک آگهی دندانپزشکی و گیل کینگ که ظاهراً یک محصول کاهش وزن را تأیید می کند.
این پست را در اینستاگرامپستی به اشتراک گذاشته شده توسط Gayle King (@gayleking)< /p>
کلاهبرداری با قیمت ۲ دلار یا خرید یک محصول کاهش وزن که واقعاً کار نمی کند، آسیب بالقوه ای است که دیپ فیک های هوش مصنوعی می توانند ایجاد کنند.
پتانسیل ایجاد اختلال در انتخابات یا انتشار اطلاعات نادرست مضر زمانی تقویت میشود که فردی که با ما صحبت میکند فردی است که به او اعتماد داریم. شرکتها در تلاشند تا یک واترمارک دیجیتالی ایجاد کنند که محتوای تولید شده توسط هوش مصنوعی را شناسایی کند، اما به نظر نمیرسد هیچکدام از آنها هنوز به طور قابل اعتماد کار نمیکنند.
حتی اگر آنها راهی برای علامت گذاری محتوای هوش مصنوعی ایجاد کنند، چگونه مردم را مجبور به استفاده از آن می کنند؟ تا زمانی که راهی پیدا نکنیم که فوراً بفهمیم چه زمانی چیزی با هوش مصنوعی تولید میشود، باید در مورد اعتقادات خود بسیار محتاط باشیم.
اگر آنقدر خوب است که درست نباشد، احتمالاً همینطور است.