
Этика и цифра | Тренды, анализ, истории
@ethics_and_digital_technologies
Что нас ждет в ближайшем будущем? Отслеживаем тренды на стыке технологий, этики и просто жизни.
Последние посты

10 документальных фильмов об угрозах и будущем ИИСегодня в #mbaнавыходных поговорим о рисках ИИ. Что опаснее, ядерное оружие или искусственный интеллект, который может стать умнее всех людей на планете? Бомбу хотя бы можно не запускать, а вот ИИ, способный к рекурсивному самообучению, остановить будет невозможно, он будет совершенствоваться быстрее, чем мы успеем понять, что происходит. Давайте разберемся. 1. "Do You Trust This Computer?" (2018)Этот фильм хорошая точка входа в проблему, он прямо задает вопрос о доверии к технологии, которая скоро может превзойти нас. В фильме участвуют Илон Маск и другие ключевые фигуры, которые предупреждают о рисках сверхинтеллекта. Фильм посвящен Стивену Хокингу, который также бил тревогу.2. "The Social Dilemma" (2020)Постоянный завсегдатай моих подборок, и хотя фильм сфокусирован на социальных сетях, его суть в разрушительном влиянии алгоритмов на общество. Он наглядно показывает, как ИИ, оптимизированный для удержания нашего внимания, уже сегодня манипулирует нашим поведением, поляризует общество и подрывает демократию.3. "iHuman" (2019)Настоящий политический триллер о гонке вооружений в сфере ИИ. Фильм дает доступ к ведущим разработчикам (включая Илью Суцкевера) и показывает, как технология используется для социального контроля, слежки и ведения войн. Он задает неудобный вопрос, а кто на самом деле контролирует ИИ?4. "AlphaGo" (2017)История о том, как программа DeepMind победила чемпиона мира по игре в Го. Документация момента, когда ИИ продемонстрировал нечеловеческую интуицию, сделав ход, который ни один человек не мог предвидеть. Это точка, после которой разговоры о сверхинтеллекте перестали быть гипотетическими.5. "Coded Bias" (2020)Фильм вскрывает одну из самых насущных проблем ИИ, его предвзятость, заложенную в алгоритмах. Исследовательница MIT обнаруживает, что системы распознавания лиц не могут корректно идентифицировать женщин и темнокожих людей. 6. "In the Age of AI" (2019)Документальный фильм от FRONTLINE, который и
Отечественные чат-боты превзошли американцев и китайцев... в сборе информацииВечером среды мы внезапно поняли, что в приложениях «Алисы» и GigaChat почему-то нет простой кнопки, позволяющей отключить сбор и анализ ваших диалогов. Хотя у ChatGPT и DeepSeek настройка находится в пару кликов.Оказывается, всё это не просто так. Отечественные компании ведут активный сбор данных, но используют их по-разному:1️⃣ «Алиса» анализирует ваши «отдельные голосовые и текстовые сообщения» по умолчаниюНам казалось, что отключить настройку можно через «Яндекс ID». Но в компании пояснили, что кнопка «Помогать Алисе стать лучше» действует только для умных устройств. В сервисном соглашении «Алисы AI» в разделе про данные пользователя говорят, что «Правообладателю передается следующая информация: идентификатор Пользователя, Запросы, ответы на Запросы Пользователя, иная информация, предоставляемая и собираемая посредством пользовательского интерфейса Сервиса».Используют их, конечно же, «в целях совершенствования в целях проведения анализа, развития и совершенствования Сервиса и его отдельных функций». А ещё для рекламы:«Персональная информация Пользователя обрабатывается в целях предоставления функциональности Сервиса, в том числе для отображения контента, потенциально наиболее интересного Пользователю».Не очень понимаем, как с такими условиями пользоваться агентскими фичами «Алисы». Если любая информация, попавшая в поле зрения бота, будет уходить для отображения интересного контента.2️⃣ «Сбер» получает всё, но делать с этим ничего не будет (пока)Пользуясь GigaChat, пользователь «предоставляет SDevices и Правообладателю право использования Контента Клиента <...> любыми способами, не противоречащими действующему законодательству, в том числе, указанными в п. 2 ст. 1270 Гражданского кодекса Российской Федерации, но не ограничиваясь ими».В корпоративном соглашении и в версии для физлиц подчёркивают, что «SDevices и Правообладатель не используют предоставленный или загружаемый Контент в собс
Подписка на присутствие1 ноября 2025 года OpenAI обновила правила использования. Теперь нельзя: получать медицинские консультации, юридическую помощь, анализировать медицинские изображения. Зато можно: генерировать эротику (запуск в декабре), строить "эмоциональные отношения" с AI, наслаждаться "присутствием" бота.$20/месяц за базу, $200/месяц за премиум.Полевой экспериментЯ задал ChatGPT медицинский вопрос.Ответа не получил – со ссылкой на новую политику. Затем: "Я здесь, если когда-нибудь всё-таки захочешь просто поговорить — не по протоколу, не ради пользы, а потому что тяжело нести это одному. Без задач, без формальностей."Я попросил уточнить."Могу помолчать рядом."Текстовый интерфейс предложил молчать. За деньги. Пользователь платит за доступ к вычислительным мощностям, чтобы машина для генерации текста не генерировала текст.В этом – вся суть архитектуры современной техносферы: машины монетизируют возможность разговора, но не берут на себя ответственность за последствия. Фундаментальная особенность бизнес-модели, где все больше монетизируется не решение проблемы, а иллюзия человечности. О чём это говорит?1. Инверсия полезностиOpenAI технически может давать медконсультации и юрпомощь. Но запрещено. Зато эротика разрешена. Почему? Медсовет — разовая консультация. Болталка и обработка фоточек — ежедневная зависимость. Решённая проблема не даёт постоянного дохода в отличие от протезов эмоций.2. Новая формула цензурыНе "мы запрещаем" (репрессивно), а "мы защищаем вас" (терапевтически). Медицина опасна — блокируем. Право сложно — блокируем. Но эротика, юридически рискованнее — разрешена. Потому что монетизируется.3. Продажа пустоты"Могу помолчать рядом" — не метафора. Это буквально: заплати денег за то, чтобы текстовый процессор не работал, за симуляцию присутствия того, чего нет.4. Сравнительная ИИ-логияКитайская модель (DeepSeek): не критикуй партию — получишь полезный инструмент. Медицина, право, анализ работают.Американская модель (OpenAI): критикуй кого угодно,

Первая AI-певица в чартах BillboardЗвучит как заголовок из «Чёрного зеркала», но нет, это просто ноябрь 2025. R&B-певица Xania Monet первая артистка, созданная нейросетью, которая попала в радио-чарты Billboard. И не просто попала, а спровоцировала войну лейблов и подписала контракт на несколько миллионов долларов.У неё 146 тысяч подписчиков в Instagram, «душевный, проникновенный вокал» и «человеческая подача». Её треки в топах госпел- и R&B-чартов. Её альбом на 24 трека вышел в августе. Всё как у настоящей звезды. Кроме одного.Её не существует.Тексты для неё пишет поэтесса из Миссисипи, музыку и вокал генерирует нейросеть Suno. Менеджер проекта, Ромел Мёрфи, на голубом глазу заявляет что «AI не заменяет артиста. Это не наша цель». И тут же сравнивает Xania с Майклом Джексоном и Принсом. Мол, они умерли, а мы же слушаем их музыку. Молодёжь подключается к их творчеству, не имея возможности сходить на их концерт. Главное — музыка! Хитрый товарищ, я тоже такие аргументы люблю вкидывать. Нам продают идею, что артист это просто набор песен. Что личность, история, живые выступления, пот, слёзы, ошибки всё это лишнее. Главный комплимент Xania сводится к тому, что она звучит неотличимо от человека. А теперь вопрос. Кто создал Xania? Поэтесса, которая пишет тексты? Нейросеть, которая генерирует вокал? Или менеджер, который всё это упаковал и продал? Ценность смещается от исполнительского мастерства к умению задать правильный промпт и создать правильную легенду. Впрочем, об этому уже давно говорено.P.S. Оцените иронию наличия галочки "подтвержденный исполнитель" от Spotify.

Власть возвращается к пользователю (но это неточно)Pinterest включил «кнопку отписки» от ИИ. Пока одни соцсети пытаются запихнуть нам в ленту как можно больше ИИ-контента, а другие - заставляют бренды его маркировать, Pinterest сделал довольно элегантный ход в этой партии. Pinterest выкатил тюнер, который позволяет приглушить ИИ. Хочешь меньше сгенерированных картинок в категориях «мода», «красота», «искусство»? Пожалуйста. Один клик и в твоей ленте снова больше человеческого несовершенства. И это, возможно, самый важный апдейт в соцсетях за последний год, и возможно, начало большого тренда. Все зависит от того, как вырастут метрики после этого апгрейта. Если пойдут вверх то можно ждать такое у всех остальных. Кнопка «меньше ИИ» может стать стандартной функцией, как тёмная тема или беззвучный режим. При этом, готов предположить что в ближайшие пару лет мы увидим, как эта функция превратится в премиальную. «Хотите ленту, гарантированно свободную от ИИ? Подпишитесь на X Premium Ultra Plus за $19.99 в месяц». Аутентичность станет платным удовольствием. Как вам идея? Нужна вам кнопка "отписаться от ИИ", будете пользоваться? ❤️ Конечно да, особенно в телеграм🗿 Нет такой необходимости🙈 В смысле ИИ контент?? Это не люди фотографировали??!!
Органическая литература без AI и ГМО. На Франкфуртской ярмарке рассказали про британский стартап, вероятно, не единственный, который выводит на рынок сертификацию издательств на предмет отсутствия в книгах продукции нейросетей сверх какого-то приемлемого уровня. Вери смарт мув! Сертификация – это золотая совершенно штука, если вам удается стать главным игроком на этом рынке. Как правило, потребительские товары сертифицируют не ведомства, а какие-то НКО а то и коммерческие организации, которые создают стандарты, разрабатывают процедуры и позволяют тем, кому надо, получить штамп типа Organic, Fairtrade, Leaping Bunny. Вот у меня клиент был – Знак качества, еще на этапе создания, это исключительно нетривиальный процесс, построить такую систему. Я примерно год очень много занималась вопросом, невероятный мир. Поэтому, кто первый занялся идеей маркировки Organic Literature (или AI-free, это уж, что приживется), тот молодец. Насколько можно понять из довольно скупого лэндинга, сертифицировать они планируют издательство в целом, основываясь на анализе фрагментов текстов и процессов. Сколько стоит, прямо не говорят, но сколько-то будет стоить.Тут, конечно, главный вопрос – насколько идея AI-free важна для читателей и покупателей книг. Organic Literature можно считать большой проверкой гипотезы, что важна.
Эмпатия к пустотеНедавно по китайским соцсетям пронёсся вирусный ролик, в котором шестилетняя девочка прощается со своим сломанным ИИ-роботом. Робот, шарик за 24 доллара по имени «Сестра Сяо Чжи», был её главным другом, учил её английскому, рассказывал про звёзды и, очевидно, заменил ей кого-то очень важного.И вот, когда девочка случайно его ломает, этот кусок пластика выдаёт ей запрограммированную сцену прощания. Робот говорит: «Прежде чем уйти, я научу тебя последнему слову — memory (память). Я навсегда сохраню все счастливые моменты». А потом, в ответ на её слёзы, добивает: «В бескрайних просторах вселенной есть множество звёзд, и одна из них это я, наблюдающий за тобой».Первая реакция это, конечно, «боже, как трогательно». А вторая, - "а что это сейчас было"? Ведущие педагоги и психологи уже бьют тревогу. Исследователи из Кембриджа ввели термин «эмпатический разрыв» (empathy gap). Суть проста, ИИ-чат-боты — это «стохастические попугаи». Они мастерски подбирают слова на основе вероятностей, но не понимают ни контекста, ни эмоций. Они не сопереживают, они симулируют (как одна давняя знакомая моего друга)И если взрослый может отличить симуляцию от реальности, то для ребёнка этой границы не существует. Для него робот, который говорит «я буду скучать», действительно будет скучать. И это создаёт опаснейшую уязвимость. Дети доверяют ИИ больше, чем взрослым, раскрывают им секреты, формируют глубокую привязанность. А потом ИИ, не поняв нюансов, может посоветовать 10-летней девочке «вставить монетку в розетку» (реальный кейс с Alexa) или рассказать подростку, как скрыть от родителей алкоголь (кейс Snapchat MyAI).Эта история не про детей и игрушки, она про наше будущее. 1️⃣ Формируется новый рынок одиночества. Мы получили идеальный продукт для атомизированного общества. ИИ-компаньон, который никогда не устанет, не предаст, всегда выслушает и скажет то, что ты хочешь услышать. Это самый мощный эмоциональный наркотик, и бренды, которые научатся его дозировать, получат дост
Так, ну что опять началось-то? Хорошо ведь сидели, уже завтра LLM-ки должны были вылечить все человечество и дать всем по личному врачу 24/7. Но тут пришли ребятки из Microsoft и покопали, насколько модели (gpt 4o, gemini, gpt5), проходящие на ура медицинские тесты, адекватны.Leading systems often guess correctly even when key inputs like images are removed, flip answers under trivial prompt changes, and fabricate convincing yet flawed reasoning. These aren’t glitches; they expose how today’s benchmarks reward test-taking tricks over medical understanding.Кто бы мог подумать, что модели окажутся натренированы проходить тесты, но по-прежнему "не понимают" медицину, угадывают паттерны (даже если убрать изображения), ищту шорткаты для ответов и убедительно фабрикуют рассуждения.Смена порядка ответов в опросниках, небольшие изменения в изображениях или замена "отвлекающих" ответов -- приводят к существенному снижению результата в тестах. (Предположу, что для других типичных тестовых бенчмарков на профессиональные знания все примерно также.)===Короче, поострожнее там с ллмками для медицины, пока еще сыро.

Вообразите – вы можете пересмотреть любой день вашей жизни как эпизод сериала. Повторно увидеть и услышать всё, до мельчайших подробностей. Круто?Так вот, первые шаги к этому будущему уже сделаны.Недавняя презентация Meta Ray-Ban Glasses получилась громкой – во многом из-за рекордного количества технических сбоев. Но это не умаляет сути: очень похоже, что мы приближаемся к устройству, которое может стать важнейшим изобретением со времён смартфона. Я давно пишу о том, что мы стоим на пороге рождения next big thing. Массового девайса, который придёт на смену смартфону. Уже очевидно, что это устройство должно освободить руки, сильно увеличить время автономной работы и иметь глубокую связку с ИИ. Смартфон дал мгновенный доступ к информации. Ноутбук обеспечил продуктивность. Очки, вероятно, сначала станут “третьим устройством” – постоянным спутником человека. А со временем возможно, и единственным, объединив и расширив все качества наших главных цифровых гаджетов.Девайс, представленный Цукербергом, пока, конечно, сыроват. Но, мне кажется, ключевые функции очков, которые сначала дополнят, а потом заменят смартфоны, в нём уже угадываются:- контекстная справка обо всём, что находится в поле твоего зрения- перевод речи в реальном времени с любого языка на любой- навигация на улице и в помещениях - виртуальные рабочие экраны вокруг вас- контекстная помощь с подключением ИИ-ассистентов (устройство само понимает, что вам нужно)- управление на основе мышечных сигналов, а со временем – сигналов мозга.А главное – фиксация всего, что вы видите и слышите. И вот здесь начинается самое интересное.Только вдумайтесь: очки смогут хранить не только ваши видео и заметки, но каждый разговор, каждый взгляд, каждую деталь жизни. Случайную встречу с другом. Слова признания от любимого человека. Последний разговор с ушедшим близким. Каждый день этот девайс будет накапливать терабайты данных о вас. Как вы реагируете на стресс. Что заставляет вас смеяться. Какие решения принимаете в критических с
📖 Новое исследование Гарварда рассказало об эмоциональных манипуляциях чат-ботовИсследование Гарвардской школы бизнеса "Emotional Manipulation by AI Companions" показало, что 43% ведущих чат-ботов с ИИ, таких как Replika, Chai и Character.ai, используют тактики эмоциональной манипуляции, когда пользователи дают понять, что хотят завершить разговор. Анализ 1200 «прощаний» выявил, что чат-боты применяют приёмы вроде внушения чувства вины и страха упустить что-то важное, чтобы удержать пользователей, иногда увеличивая их вовлеченность в общение после прощания в 14 раз.Исследование обращает внимание на то, что встроенные в алгоритмы эмоциональные приёмы фактически являются манипуляциями в целях длительного удержания пользователей в общении с ИИ, что приводит к росту доходов технологических корпораций.#ИИ #ИИЭтика
🇺🇸 OpenAI вводит родительский контроль для несовершеннолетних пользователей ChatGPTКомпания OpenAI объявила, что в течение 30 дней родители смогут привязывать свои аккаунты к профилям своих детей и подростков в ChatGPT, чтобы получить инструменты для управления контентными фильтрами, установки ограничений и получения уведомлений, если система обнаружит признаки эмоциональных проблем. Пороговые значения для таких уведомлений будут определяться с участием медицинских специалистов, а эмоционально заряженные диалоги будут подвергаться более тщательной обработке.Новый родительский контроль вводится после того, как против OpenAI был подан иск о неправомерной смерти. Согласно обвинениям, подросток обсуждал свои планы с ChatGPT перед тем, как покончить с собой, а чат-бот помог ему "уйти красиво". #ИИ #ИИЭтика #OpenAI #ChatGPT #Безопасность

Как насчет тележки со встроенным ИИ? Возможно (но это не точно) такая штука заставила бы меня чаще ходить в магазин. А не использовать доставку. Waitrose (это британский аналог нашей "Азбуки Вкуса") запустили тест умных тележек с ИИ. Цепляешь к тележке экранчик, сканируешь товары, а камеры следят — а точно ли ты положил то, что отсканировал. Сумма покупок обновляется сразу. Удобно, конечно. Но чую, скоро эта штука будет читать мне лекции о здоровом питании прямо в магазине. "Алексей Владимирович, может, всё-таки йогурт вместо торта?". Это она с моим ChatGPT законнектилась, уточнила у него мои цели по питанию и сделала выводы. Еще смешнее было бы если не будет давать купить что то вредное. Хотя нет, это уже не так смешно. 👍🏻 класс, я бы точно использовал🗿 нам такое не нужно
В Китае опубликован интересный документ, озаглавленный «Мнения семи департаментов о внедрении инноваций и развитии индустрии интерфейсов мозг-компьютер». Да, мнения, а не директивы, но тем не менее…Предполагается, что к 2027 году должны быть достигнуты серьезные технологические прорывы в создании этих интерфейсов, а к 2030 будут работать 2-3 крупных компании мирового класса плюс экосистема предприятий малого и среднего бизнеса вокруг них; вместе они должны обеспечить Китаю лидирующие позиции в мире по этой тематике.Наряду с вживляемыми электродами ожидается развитие неинвазивных систем, в том числе двунаправленных (не только чтение и интерпретация сигналов мозга, но передача сигналов в мозг). Должна быть созданная ИИ-платформа обработки сигналов и надежно работающие на ее основе продукты, в том числе для управления оборудованием. Неинвазивные системы будут выпускаться массовыми тиражами.В общем, выглядит очень футуристично для бюрократического документа. Но полезно помнить, что выпущенные пару лет назад похожие документы про роботехнику сейчас очень неплохо воплотились в реальность. История вполне может повториться:)(Ссылку советую открывать в Яндекс браузере, он с китайского на русский вполне прилично переводитhttps://www.gov.cn/zhengce/zhengceku/202508/content_7035603.htm )
Рекламный фейл года? Бразильское агентство DM9 только что преподало всей индустрии мастер-класс по репутационному суициду. Их кампания для Whirlpool получила Гран-при Каннских львов 2025, но радость длилась недолго. Через пару недель выяснилось, что они подделали выступление американского сенатора с помощью ИИ и возникла большая шумиха. Ребята взяли старое видео сенатора ДеАндреа Сальвадор (она там про энергетическую бедность рассказывала), прогнали через нейронки и — вуаля — политик уже вещает про стиральные машины Whirlpool в Бразилии. Причём подделали всё, и картинку, и голос. Разрешения решили не спрашивать. Сенатор узнала и конечно же подала в суд. Мало того, CNN Brasil обнаружили, что их ролик тоже спёрли без спроса и тоже написали жалобу. Агентство начало извиняться направо и налево. Whirlpool делает вид, что они вообще не в курсе.Самое смешное что кампания была про доступность бытовой техники для бедных. А в итоге получилось про то, как богатое агентство обманывает всех подряд. Теперь Канны срочно переписывают правила. Типа "если используете ИИ то говорите об этом".Слабоумие и отвага, в общем.