Я упомянул ИИ для иллюстрации глобального тренда, как пример.
Что касается ИИ, суть в том, что мы переживаем период даже еще не детских болезней ИИ. ИИ еще не создан. Пока что эта технология идет к полному запрету. Пока что пытаются устранять самые очевидные претензии к результатам.
Если максимально упростить, то в основе этой технологии лежит вероятность последовательности слов. Современные языки, в отличие от античных, уже настолько рационализированы, что мы можем использовать готовые или придумать новые языки пока еще не для однозначного, но уже для вероятностного описания знаний.
Имеем некие существующие знания, представленные в самых разных формах. Описываем их рационализированными языками. Имеем множество языковых описаний. Ищем среди них наиболее вероятные последовательности слов. Затем транслируем обратно эти наиболее вероятные сочетания в первоначальные формы - в тексты, картинки, видео.
На каком материале все это обучается, где ищут наиболее вероятные сочетания? Оценка обучения здесь не суть важна. Методичка, черновая работа, все это особо не влияет. Исходники какие?
Википедия создавалась по другой технологии. Цель была иная - кратко, но максимально полно. Полнота здесь не достигается, внутренней согласованности нет, но есть путь к честности - признать важное.
Получилась странная история. Вики позволяет себе такие статьи, некоторые из идей которых наглухо банятся в социальных сетях. За сложностью и непонятностью Вики удается скрывать то, что категорически недопустимо в области совсем уже популярных социальных сетей. Особенно ярко эта разница срабатывает в англоязычном сегменте.
Выше по иерархии сложности есть другие области информации - научные книги, статьи, журналы. Книги почти убиты, как явление. Научные источники жесточайшим образом рецензируются. Плюс самоцензура - каждый ученый планирует получить грант завтра. Говорить, что думает, он не будет.
Разные сегменты, даже разные площадки формируются владельцами. Свободы нет нигде - речь не об этом.
И вот это вот все поступает в миксер знаний ИИ на предмет вероятностного анализа последовательности слов. Если в промте для ИИ удается локализовать некоторую конкретную область источников, то от значительной доли сорного мусора удается избавится. Но очищенный остаток тоже немногим лучше.
Задай промт такому ИИ, и получишь ответ, который никоим образом не формирует ту систему ценностей, которая требуется от средства (массовой) информации, путь даже и персонального использования - каждому своё, но из общего источника.
Попытки формирования системы ценностей обнаруживают отсутствие того, что следует сформировать. Работают иначе - убирают лишнее. В ходу методология отрицания. Этот тренд в позитив созидания не развернешь, никаких элементов, никаких признаков созидания не остается. Созидал вероятностный анализ - в среднем. Но поверх него наложили огромное множество конкретных рациональных негативных отрицаний. Начинает работать не то, что размытое и есть, но то, чего во множестве и конкретно нет.
Если знания о полноте, то это "то, чего нет", не менее реальное. ИИ во весь голос красноречиво молчит.
Проблема вовсе не в пробитии ИИ на ошибку - ИИ не так просто вынудить ругнуться неполиткорректно. Вероятность пробития вполне себе допустима.
ИИ в такой форме формирует тренды через отрицание. Именно так оказываются выражены вероятностные речевые модели.
Само по себе отрицание - явление накопительное, оно формирует культуру долго, хотя уже и безнадежно надежно. Сразу этих результатов не видно. Но уже прям сегодня срабатывает другой эффект.
ИИ ошибается в области эмоциональной оценки его результатов людьми. По форме все вроде прежнее, но "вдруг" формируется резко негативное отношение к некоторым явлениям. Такое отношение крайне сложно исправить, тем более, что ничуть не менее прогнозируемым и еще более серьезным может быть завтра. ИИ в некоторых отношениях неуправляем. Вероятность того, что именно отрицание сработает в эмоциональный негатив крайне велика. Как бы уже есть такой тренд.
И это лишь одна из проблем. ИИ по сути вне технологии управления на базе эмоций, которая сегодня в ходу. И даже вредит этим технологиям.