"Дослідження: меми впливають на здатності ШІ до мислення" - Юрій Ніколов

"Дослідження: меми впливають на здатності ШІ до мислення" - Юрій Ніколов

Про отупіння. Друзі, я вам ніхто, щоб забороняти якийся контент. Але ось куди розумніші люди з видання «Wired» пишуть: «Меми можуть погіршувати когнітивні здібності та критичне мислення не лише людей, а й штучного інтелекту… Розробники часто сприймають пости із соцмереж як корисне джерело даних для навчання моделей, але насправді такий контент може непомітно знижувати їхню здатність до міркування, етичність і увагу до довготривалого контексту».

Тож я можу тільки просити – читайте лонгріди, тримайтесь подалі від карапулєчних «зи яка ржака». Так збережемо когнітивочку)))


Дослідження: меми впливають на здатності ШІ до мислення

Меми можуть погіршувати когнітивні здібності та критичне мислення не лише людей, а й штучного інтелекту. Як з'ясували дослідники з Техаського університету в Остіні, Техаського університету A&M та Університету Пердью, великі мовні моделі, які навчаються на великій кількості популярного, але низькоякісного контенту, можуть поступово "тупішати", пише Wired.

Результати віддзеркалюють подібні дослідження, проведені на людях, які споживали велику кількість низькоякісного вмісту у соціальних мережах, що безпосередньо впливало на їхні когнітивні здібності. Через поширеність такого явища, у 2024 році в Оксфордському словнику для цього з'явився відповідний термін – "брейнрот".

    "Ми живемо в епоху, коли інформація зростає швидше, ніж тривалість концентрації уваги, і значна її частина розроблена для того, щоб фіксувати кліки, а не передавати правду чи глибину", – сказав Джуньюань Хонг, майбутній доцент Національного університету Сінгапуру, який працював над дослідженням як аспірант Техаського університету в Остіні. "Ми поставили собі питання: що станеться, якщо штучний інтелект навчати тому ж самому?"

Хонг та його колеги завантажували різні типи текстів у дві відкриті мовні моделі на етапі попереднього навчання. Вони спостерігали, як моделі реагують на поєднання надто "цікавих" або популярних публікацій із соцмереж, а також на тексти з сенсаційними словами, такими як "вау", "дивіться" чи "тільки сьогодні".

Потім команда застосувала кілька контрольних метрик, щоб оцінити, як така "сміттєва" інформаційна дієта впливає на моделі Llama від Meta та Qwen від Alibaba. Виявилося, що LLM, натреновані на неякісному контенті, почали демонструвати ознаки "штучного брейнроту" – погіршення когнітивних здібностей, зниження здатності до логічного мислення та проблеми з пам'яттю. Ба більше, вони ставали менш етично узгодженими та проявляли більш психопатичні риси, згідно з двома показниками.

Дослідники також з'ясували, що моделі ШІ, які "отруїлися" великою кількістю низькоякісного контенту, складно відновити або повторно натренувати. Крім того, вони дійшли висновку, що системи, побудовані на базі соціальних мереж, як-от Grok від xAI, можуть мати серйозні проблеми з контролем якості, якщо в навчанні використовуються пости користувачів без перевірки їхньої правдивості.

Хонг зазначає, що результати цього дослідження мають велике значення для ШІ-галузі. Розробники часто сприймають пости із соцмереж як корисне джерело даних для навчання моделей, але насправді такий контент може непомітно знижувати їхню здатність до міркування, етичність і увагу до довготривалого контексту.