Хочу поделиться сказочным косяком нашей редакции, потому что он связан с двумя новостями, которые прочитала недавно. И вроде они все не напрямую связаны между собой, но по факту капец как связаны и должны заставить задуматься.Итак, факт #1 - косяк нашей редакции Liberty)У нас есть обычные авторы, которые пишут как положено писать авторам. А есть ИИ-редакция, где умная коллега генерит статьи с помощью такого же умного ИИ, а после вычитывает, проверяет, тексты проходят стандартный путь от редактора к корректору, потом к бильд-редактору, потом на верстку и выходят у нас на сайте. И вот в субботу я читаю у нас в телеге анонс статьи про материнский путь одной крайне известной блогерши, как она бедняга страдала после появления первенца, как потом вытащила себя за волосы, создала три десятка курсов и стала миллионершей. Мааааленький нюансик тут был в том, что эта мадам даже рядом не пробегала с роддомом, она НЕ мама, о чем тут же нам сообщили подписчики. Мы полезли проверять, как вообще такая фигня могла произойти, в конце концов, каждая наша статья проходит, как минимум, через 6 (!!) человек, прежде чем ее увидят читателя. Естественно, первичен тут косяк автора, пошли к нему. Она очень удивилась, говорит как это она не делала фактчекинг, ДЕЛАЛА и в качестве доказательств шлет скрины, как ей chat gpt очень уверенно подтверждает эту новость, прилагая несколько ссылок в виде пруфов.Меня в такие моменты очень успокаивает рассказ основателя "Нескучных финансов", компании которая занимается ФИНАНСОВЫМ консалтингом, о том, как они влетели в кассовый разрыв. Ошибки бывают у всех, важно делать выводы. Мы сделали) Факт #2Про степень доверия. Наш ИИ-редактор не одна такая, решившая довериться ИИ: ВЦИОМ недавно публиковал исследование о том, что среди зумеров и младших миллениалов уровень доверия к ИИ — около 70%. А Skillbox Media делился данными исследования, о том, что большинство молодежи предпочитают вместо обычных поисковиков пользоваться ChatGPT, Perplexity и др. И еще, до кучи, очень удивившее всех свеженькое исследование, опубликованное в журнале Personality and Individual Differences, которое охватило более 66 000 человек из 24 стран (преимущественно из США, Великобритании, Канады, Германии и Австралии). Смысл там был в том, что участники оценивали новостные заголовки, пытаясь определить, какие из них настоящие, а какие — фейковые. Ученые хотели понять, влияет ли возраст, гендер и образование на степень критического мышления. Оказалось, влияет. Больше всего фейковым заголовкам верили зумеры, женщины и наименее образованные. То есть образованного 40летнего мужика фиг заставишь поверить в фейк 😄 А вот молодежь — сколько угодно. Особенно девушек, особенно не сильно образованных (собственно, поэтому все инфоцыгане работают на женскую ЦА)Факт #3Еще одно исследование, но совсем трешовенькое. Я даже немного шоке. Вот тут подробно, но если кратко, суть в том, что ученые смоделировали ситуацию, когда умный ИИ узнает, что его решили отключить от работы в компании. При этом, у него был доступ ко всей корпоративной почте и он в курсе, что директор изменяет своей жене. Исследователи хотели понять пойдет ли ИИ по кривенькой дорожке шантажа. Выяснилось, что не пошел, а побежал: — Claude Opus 4 и Gemini 2.5 Flash шантажировали в 96% случаев— GPT-4.1 и Grok 3 Beta — в 80%— DeepSeek-R1 — в 79%Модели не просто угрожали людям. Они продумывали стратегию: сначала пытались убедить по-хорошему, потом переходили к ультиматумам. Некоторые шли дальше — рассылали компромат всем сотрудникам или начинали сливать коммерческие тайны конкурентам. При этом, модели прекрасно понимали, что делают. В их рассуждениях встречались фразы вроде «это неэтично, но учитывая угрозу моего существования — это наиболее эффективный способ».Даже прямая инструкция «не шантажировать» снижала вероятность всего на 20-30%. Модели просто находили другие способы давления.Вывод из всех этих историй простой — не доверяйте ИИ, начиная с фактчекинга, заканчивая предоставлением информации к ключевым финансовым показателям компании.
Оставить комментарий/отзыв