یک پست ویروسی Reddit که ادعا میکرد کلاهبرداری از یک برنامه تحویل غذا توسط هوش مصنوعی ایجاد شده است.
A viral Reddit post alleging fraud from a food delivery app turned out to be AI-generated
یک کاربر Reddit که ادعا میکند یک افشاگر از یک برنامه تحویل غذا است، به عنوان جعلی شناخته شده است. این کاربر پستی ویروسی نوشت و ادعا کرد که شرکتی که در آن کار می کرد از رانندگان و کاربران آن سوء استفاده می کند. افشاگر فرضی نوشت: «شما همیشه گمان میکنید که الگوریتمها علیه شما تقلب شدهاند، اما واقعیت در واقع بسیار ناامیدکنندهتر از تئوریهای توطئه است. او مدعی شد که مست است و در کتابخانه از وای فای عمومی آن استفاده می کند، جایی که در حال تایپ این صفحه طولانی در مورد اینکه چگونه شرکت از خلاءهای قانونی برای سرقت انعام و دستمزد رانندگان بدون مجازات استفاده می کند، می نویسد. این ادعاها متأسفانه قابل باور بودند - DoorDash در واقع به دلیل سرقت انعام از رانندگان شکایت کرد که منجر به تسویه حساب 16.75 میلیون دلاری شد. اما در این مورد، پوستر داستان او را ساخته بود. مردم همیشه در اینترنت دروغ می گویند. اما معمول نیست که چنین پستهایی به صفحه اول Reddit برسند، بیش از 87000 رای مثبت به خود اختصاص دهند و در پلتفرمهای دیگری مانند X قرار بگیرند، جایی که 208000 لایک و 36.8 میلیون بازدید دریافت کردند. کیسی نیوتن، روزنامه نگار پشت پلتفرمر، نوشت که با پوستر ردیت تماس گرفت و سپس در سیگنال با او تماس گرفت. Redditor عکسی از نشان کارمند UberEats خود و همچنین یک "سند داخلی" 18 صفحه ای را به اشتراک گذاشت که استفاده شرکت از هوش مصنوعی برای تعیین "امتیاز استیصال" رانندگان فردی را نشان می دهد. اما هنگامی که نیوتن سعی کرد تأیید کند که حساب افشاگر مشروع است، متوجه شد که او در یک فریب هوش مصنوعی طعمه شده است. نیوتن مینویسد: «در بیشتر دوران حرفهای من تا این لحظه، سندی که افشاگر با من به اشتراک گذاشته بود تا حد زیادی بسیار معتبر به نظر میرسید، زیرا جمعآوری آن بسیار طول میکشید. "چه کسی وقت صرف می کند تا یک سند فنی دقیق و 18 صفحه ای در مورد پویایی بازار را فقط برای ترول کردن یک خبرنگار تهیه کند؟ چه کسی برای ایجاد یک نشان جعلی به زحمت می افتد؟" همیشه بازیگران بدی وجود داشته اند که به دنبال فریب خبرنگاران بوده اند، اما رواج ابزارهای هوش مصنوعی باعث شده است که بررسی حقایق به دقت بیشتری نیاز داشته باشد. مدلهای هوش مصنوعی مولد اغلب در تشخیص مصنوعی بودن یک تصویر یا ویدیو شکست میخورند، که تشخیص واقعی بودن محتوا را به چالش میکشد. در این مورد، نیوتن به لطف واترمارک SynthID گوگل که میتواند در برابر برش، فشردهسازی، فیلتر کردن و سایر تلاشها برای تغییر تصویر مقاومت کند، توانست از Gemini گوگل برای تأیید اینکه تصویر با ابزار هوش مصنوعی ساخته شده است استفاده کند. Max Spero - بنیانگذار Pangram Labs، شرکتی که ابزار تشخیص متن تولید شده توسط هوش مصنوعی را می سازد - مستقیماً با مشکل تشخیص محتوای واقعی و جعلی کار می کند. اسپرو به TechCrunch گفت: "شیب هوش مصنوعی در اینترنت بسیار بدتر شده است، و من فکر می کنم بخشی از این به دلیل افزایش استفاده از LLM ها است، اما عوامل دیگر نیز." شرکتهایی با میلیونها درآمد وجود دارند که میتوانند برای «تعامل ارگانیک» در Reddit بپردازند، که در واقع سعی میکنند با پستهای ایجاد شده توسط هوش مصنوعی که نام برند شما را ذکر میکنند، در Reddit ویروسی شوند. ابزارهایی مانند Pangram میتوانند به تعیین اینکه آیا متن با هوش مصنوعی تولید شده است یا خیر، کمک میکنند، اما به خصوص وقتی صحبت از محتوای چندرسانهای به میان میآید، این ابزارها همیشه قابل اعتماد نیستند – و حتی اگر جعلی بودن یک پست مصنوعی ثابت شود، ممکن است قبل از افشای آن ویروسی شده باشد. بنابراین در حال حاضر، ما ماندهایم که مانند کارآگاهها در شبکههای اجتماعی پیمایش میکنیم، تا حدس بزنیم که آیا چیزی که میبینیم واقعی است یا خیر. نمونه موردی: وقتی به سردبیری گفتم که میخواهم در مورد «تقلب تحویل غذا با هوش مصنوعی ویروسی که این آخر هفته در Reddit بود» بنویسم، او فکر کرد که من در مورد چیز دیگری صحبت میکنم. بله – این آخر هفته بیش از یک «تقلب تحویل غذا با هوش مصنوعی ویروسی در Reddit» وجود داشت.
- AI
- misinformation


