23 مهر 1404
استفاده گسترده و اغلب بدون نظارت از هوش مصنوعی، که «Slop» نامیده میشود، به طور فزایندهای فضای مجازی را با محتوای غیرقابل اعتماد و بیهدف پر میکند، که خالقان حرفهای محتوا را به چالش میکشد و تمایز بین ارزشآفرینی و تخریب ارزش را از بین میبرد. این تکثیر اطلاعات تولید شده توسط هوش مصنوعی، از دروغهای پیچیده تا دادههای ساختگی، اینترنت را با «حقایق مصنوعی» به فساد میکشاند و سیستمهای دانش آینده را مسموم میکند، اگر با نظارت انسانی و بصیرت انتقادی مدیریت نشود.

اصطلاح «Slop» اخیراً در فضای مجازی محبوب شده است که به استفاده بیش از حد از هوش مصنوعی اشاره دارد، و به کسانی که درگیر آن هستند «slopper» گفته میشود.
استفاده از هوش مصنوعی، که هنوز ناقص است، اینترنت و فضای مجازی را ویران کرده است، با وجود اینکه ۷۰ درصد از وبلاگهای انگلیسی درگیر آن هستند و وبسایتهای متعددی را بدون نظارت انسانی اداره میکند.
اگرچه محتوای تولید شده خودکار توسط هوش مصنوعی ایده جالبی است، اما حاوی توهمات و اطلاعات مصنوعی بسیاری است که نمیتوان ۱۰۰% به آن اعتماد کرد.
محتوای فعلی اینترنت، که پر از ویدئوهای مسخره هوش مصنوعی و محتوای بیهدف است، باعث میشود خالقان محتوای حرفهای که زمان زیادی را به کار خود اختصاص میدهند، نادیده گرفته شوند و از رقابت خارج شوند.
کاربرد هوش مصنوعی به وضوح مرز بین ارزشآفرینی و تخریب ارزش را مشخص میکند.
مدلهای اولیه چتباتهای محبوب، مانند Gemina (که قبلاً Bard بود)، عبارات مسخرهای مانند توصیه به کاربران برای خوردن سنگ به خاطر ویتامینها یا چسباندن چسب به پیتزا برای کشسانی را تکرار میکردند که به راحتی قابل تشخیص به عنوان اشتباه بودند.
هوش مصنوعی مدرن اکنون دروغها و توهماتی تولید میکند که آنقدر زیبا و جذاب هستند که فقط یک متخصص میتواند ماهیت واقعی آنها را تشخیص دهد.
Reddit اخیراً از چتباتها برای تولید هزاران نظر استفاده کرد، با این هدف که بحثها را فعال نگه دارد، اما این کار منجر به کاهش مکالمات واقعی بین مردم و حذف تدریجی عنصر انسانی از فضاهای گفتوگو شد.
مطالعهای توسط Stanford University پیشبینی میکند که تا سال ۲۰۲۵، بیش از ۷۰ درصد از محتوای جدید منتشر شده در وب انگلیسیزبان، به طور جزئی یا کامل توسط هوش مصنوعی و اغلب بدون نظارت انسانی نوشته خواهد شد.
مدلهای زبانی فقط الگوها و دادههای آماری را درک میکنند، نه معنای پشت جملات را، که باعث میشود اینترنت به تدریج با متونی پر شود که دقیق و علمی به نظر میرسند اما دنیای درونی خالی و بدون پشتیبانی دارند.
این پدیده تولید متون به ظاهر دقیق اما از درون خالی توسط هوش مصنوعی، «حقیقت مصنوعی» نامیده میشود.
هنگامی که میلیونها مقاله جعلی منتشر میشوند و موتورهای جستجو از آنها برای آموزش مدلهای بعدی استفاده میکنند، یک چرخه خطرناک آغاز میشود که در آن اطلاعات روز به روز کثیفتر و نادرستتر میشود، و تشخیص رسمی بین اخبار درست و نادرست را بسیار دشوار میکند.
تحقیقات Tiqat Newsguard نشان میدهد که بیش از ۱۰۰۰ وبسایت خبری در سال ۲۰۲۵ به طور خودکار توسط هوش مصنوعی اداره خواهند شد، که بدون نویسنده، بررسی واقعیت یا نظارت فعالیت میکنند، و دنبالکنندگان آنها از محتوای تولید شده توسط هوش مصنوعی بیخبرند.
هوش مصنوعی فراتر از سرفصلهای جعلی رفته و دادههای جدیدی را خلق کرده است که حاصل توهم هستند، مانند اختراع مقالات علمی غیرموجود برای توجیه جملات خود، که سپس به عنوان منابع معتبر وارد دادههای آموزشی میشوند و منجر به مسمومیت دادهها میگردد.
این مشکل فراتر از متن است، زیرا ابزارهای هوش مصنوعی مانند Apnai's Sarai 2 میتوانند جزئیات صحنه را آنقدر واقعگرایانه طراحی کنند که بدون واترمارک، میتوان آنها را با عکسها یا ویدئوهای واقعی اشتباه گرفت.
یک کانال YouTube که از هوش مصنوعی برای جمعآوری دادهها و ساخت ویدئوهای علمی استفاده میکرد، دریافت که در حالی که درصد بالایی از تحقیقات هوش مصنوعی صحیح بود، درصد قابل توجهی نیز از اطلاعات نادرست تشکیل شده بود، که دادهها را غیرقابل اعتماد و زمانبر برای تأیید میکرد.
برخی سایتها عمداً محتوای نادرست را به گونهای مینویسند که فقط هوش مصنوعی بتواند آن را درک و تأیید کند، و به مولدهای زبان دستور میدهند که مقالات آنها را در تحقیقات خود بگنجانند.
سوال این نیست که هوش مصنوعی ذاتاً خطرناک یا مفید است، بلکه این است که چگونه از آن استفاده میشود، شبیه ابزاری مانند چاقو، که کاربرد آن تعیین میکند آیا ارزش ایجاد میکند یا اینترنت را از بین میبرد.
ارزشآفرینی به معنای استفاده از هوش مصنوعی برای افزایش بهرهوری، آموزش، درمان، کشف علمی یا رشد اقتصادی است، جایی که انسانها تصمیمگیرنده باقی میمانند و هوش مصنوعی به عنوان ابزاری کمکی عمل میکند و کارهای دشوار و پرهزینه را ساده میکند.
تخریب اینترنت و ارزشها زمانی اتفاق میافتد که انسانها حذف شوند، حقایق دیگر بررسی نشوند و فقط محتوا بدون نظارت تولید شود.
جامعه علمی و فناوری در تلاش است تا کنترل خود را بر هوش مصنوعی بازگرداند، با ابتکاراتی مانند AI Act اتحادیه اروپا که مدلهای مولد، محدود و شفاف را ترویج میکند، و شرکتهایی مانند Entropic، OpenAI و DeepMind که واترمارک یا امضای دیجیتال برای محتوا توسعه میدهند.
پلتفرمهایی مانند Stack Overflow و Wikipedia از سیاستهایی برای جلوگیری از محتوای تولید نشده در سایتهای خود استفاده میکنند، اما در نهایت، آگاهی انسانی کلید است؛ یادگیری تفاوت بین محتوای انسانی و ماشینی، ایجاد شک، و انجام تحقیقات برای استفاده از هوش مصنوعی جهت ایجاد ارزش واقعی حیاتی هستند.
هوش مصنوعی میتواند وظایف ساده در طراحی عکس، ویرایش ویدئو، انیمیشن و تولید محتوا را، که معمولاً چالشبرانگیز و زمانبر هستند، به طور قابل توجهی ساده و خودکار کند.
انسانها باید در نهایت کنترل نرمافزار هوش مصنوعی را در دست بگیرند، نه برعکس، زیرا منبع خلاقیت و نوآوری در خود انسانها قرار دارد.
هوش مصنوعی بزرگترین شمشیر دولبه در تاریخ بشر است که در یک سو علم، پیشرفت و رفاه را ارائه میدهد و در سوی دیگر دروغ، سطحینگری و فریب جمعی را.
انتخاب ساده است: از هوش مصنوعی برای بهبود کیفیت زندگی، علم و هنر استفاده کنیم، یا اجازه دهیم که به کارخانهای برای تولید محتوای بیکیفیت و غیرقابل اعتماد تبدیل شود که هیچکس به آن اعتماد ندارد.
هوش مصنوعی فقط تا زمانی به عنوان ابزار آفرینش عمل میکند که انسانها آفریننده آن باشند؛ پس از حذف انسانها، دانش بشری از بین خواهد رفت و به یک آشفتگی بزرگ متشکل از میلیاردها جمله تکراری بدون معنا یا مفهوم واقعی تبدیل خواهد شد.
هوش مصنوعی ابزاری برای آفرینش است، اما فقط تا زمانی که انسانها همچنان آفریننده آن باشند.
| KeyAspect | Description | ConsequenceOrMitigation |
|---|---|---|
| تعریف «Slop» | استفاده بیش از حد و اغلب غیرانتقادی از هوش مصنوعی در تولید محتوا. | منجر به تخریب فضای مجازی، تحتالشعاع قرار دادن خالقان انسانی و ایجاد پرسشهایی درباره اصالت محتوا میشود. |
| اعتمادپذیری محتوای هوش مصنوعی | محتوای تولید شده توسط هوش مصنوعی، اگرچه اغلب پیچیده است، اما فاقد درک واقعی بوده و حاوی توهمات است که آن را ذاتاً غیرقابل اعتماد میکند. | دروغهای جذاب و باورپذیری تولید میکند که فقط متخصصان میتوانند آنها را تشخیص دهند، که منجر به پدیده «حقایق مصنوعی» میشود، جایی که محتوا دقیق به نظر میرسد اما از درون خالی است. |
| چرخه مسمومیت داده | مدلهای هوش مصنوعی بر روی دادههای به طور فزایندهای نادرست، از جمله دروغهای تولید شده توسط هوش مصنوعی و مقالات علمی ساختگی، آموزش داده میشوند. | یک چرخه خطرناک ایجاد میکند که در آن اطلاعات به تدریج کثیفتر و تأیید آن دشوارتر میشود، مدلهای آینده را فاسد میکند و تشخیص اخبار درست از نادرست را دشوار میسازد، به طوری که انتظار میرود بسیاری از سایتهای خبری مبتنی بر هوش مصنوعی تا سال ۲۰۲۵ فعال شوند. |
| تأثیر بر تعامل انسانی | تولید محتوای گفتوگویی یا رسانههای اجتماعی توسط هوش مصنوعی میتواند تعامل و حضور واقعی انسان را کاهش دهد. | منجر به احساس کاربران مبنی بر «حرف زدن با دیوار» و حذف تدریجی عنصر انسانی از فضاهای دیجیتال میشود، همانطور که استفاده Reddit از چتباتها نشان داد. |
| ماهیت دوگانه هوش مصنوعی و کنترل انسانی | هوش مصنوعی بزرگترین شمشیر دولبه در تاریخ بشر است که هم پیشرفتهای چشمگیر و هم فریب عمیق را ارائه میدهد. | انتخاب این است که از هوش مصنوعی برای بهبود کیفیت زندگی، علم و هنر استفاده کنیم (با انسانها به عنوان تصمیمگیرنده و هوش مصنوعی به عنوان ابزاری کمکی)، یا اجازه دهیم که به کارخانهای برای محتوای غیرقابل اعتماد و بیمعنی تبدیل شود. آگاهی و کنترل انسانی برای جلوگیری از انحلال دانش بشری ضروری است. |
| چشمانداز آینده و تلاشهای نظارتی | تا سال ۲۰۲۵، بیش از ۷۰ درصد از محتوای جدید وب توسط هوش مصنوعی و اغلب بدون نظارت انسانی نوشته خواهد شد، که شامل رسانههای بصری نیز میشود. | به آگاهی انسانی برای تشخیص محتوای تولید شده توسط ماشین، تقویت تفکر انتقادی و انجام تحقیقات نیاز دارد. جامعه علمی و فناوری در حال کار بر روی راهحلهایی مانند AI Act اتحادیه اروپا، واترمارک (Entropic، OpenAI، DeepMind) و سیاستهای محتوا (Stack Overflow، Wikipedia) است. |
