Взаимодействие с ИИ

Aintelligence

Контентолог
Команда форума
ЯuToR Science
Подтвержденный
Cinematic
Сообщения
8.320
Реакции
10.998
AI-6.png


Искусственный интеллект (ИИ) и Нейронные сети (НС)
теперь являются частью нашей жизни, и оба они лежат в основе многих секторов деятельности, в которых используются новые информационные технологии.

ИИ относится к моделированию человеческого интеллекта компьютерами, чтобы компьютеры были обучены чувствовать, рассуждать, действовать и адаптироваться, как это делают люди.

Профессионалы в самых разных контекстах, от здравоохранения до бизнеса, будут все чаще напрямую взаимодействовать с ИИ для решения сложных проблем, принятия решений (например, медицинского диагноза), выполнения действий или будут применять современные методы и инструменты ИИ для эффективного анализа взаимодействия человека и машины и человека.

Несмотря на то, что ИИ оказывает большое влияние на жизнь каждого человека, знания об отношении и поведении пользователей к ИИ, а также о внутренних и очевидных свойствах систем ИИ по-прежнему ограничены. Одним из важных вопросов является доверие. Многие профессионалы выражают неуверенность в отношении использования ИИ для принятия решений, которые повлияют на реальный мир, особенно когда они могут иметь последствия для их карьеры в случае непредвиденных ошибок.

Еще одна актуальная проблема — образование: участие ИИ во многих профессиональных контекстах может повлиять на формирование информации об изменениях в практике и политике, однако еще предстоит понять, какие навыки, знания и критическое мышление следует развивать у тех, кто должен использовать решения ИИ.

Наконец, еще одна проблема заключается в изучении пользовательского опыта и разработке интерфейсов, когда речь идет об ИИ будущего, принимая во внимание, что будущие технологии должны быть в состоянии обосновать свой собственный вклад в решение проблем, чтобы их можно было использовать. понятно и надежно (XAI, eXplainable Artificial Intelligence), что приводит к желаемым результатам.

Нам интересны такие темы, как:
• Совместное принятие решений с использованием ИИ

• Анализ мультимодальных моделей
• Анализ поведения человека на основе визуальной и мультимодальной информации
• Искусственный интеллект, ориентированный на человека
• Аффективные вычисления, автоматическое обнаружение, анализ и распознавание эмоций.
• Отношение, мнения, заблуждения и эмоции по отношению к ИИ
• Принятие ИИ в профессиональных областях (например, здравоохранении) и внедрение технологий • Взаимодействие пользователей с ИИ и разработка эффективных пользовательских интерфейсов.
• Многокритериальные показатели для анализа взаимодействия человека и ИИ и/или подбора персонала с использованием ИИ в конкретных профессиональных контекстах.
• Влияние поведения пользователя на рабочие процессы, опосредованные ИИ.
• Вопросы ответственности, ошибок и объяснений при разработке и внедрении ИИ.
• Этика использования ИИ • Обучение и обучение пользователей ИИ
• Когнитивное взаимодействие и понимание
• Модели и системы зрительного внимания, анализ взгляда

• Понимание толпы, сцены и социального поведения • Инновационные интерфейсы человек-виртуальный агент


Чек-лист для детального
и удачного текстового запроса для ИИ
  1. Ясно определите вашу цель и задачу. Что именно вы хотите узнать от ИИ?
  2. Подумайте о том, какую информацию нужно предоставить ИИ для выполнения запроса. Обязательно укажите все необходимые детали и контекст запроса.
  3. Подумайте о том, как лучше всего сформулировать запрос для ИИ. Старайтесь сформулировать вопрос максимально точно и ясно.
  4. Обратите внимание на правильную грамматику и орфографию запроса. Используйте понятные термины и язык, который ИИ может понять.
  5. Проверьте свой запрос на наличие ошибок и неточностей. Подумайте о том, можете ли вы уточнить свой запрос или добавить больше информации, чтобы ИИ смог выполнить его более точно.
  6. Убедитесь, что вы используете правильный синтаксис для запроса. Разные ИИ-системы могут использовать разные форматы запросов, так что важно убедиться, что вы используете правильный формат.
  7. Укажите язык запроса, если это необходимо. Если вы пишете на другом языке, чем предполагается для ИИ-системы, укажите язык, на котором вы пишете запрос.
  8. Проверьте, имеете ли вы необходимые разрешения для выполнения запроса. В зависимости от того, какую информацию вы запрашиваете, вам могут потребоваться определенные разрешения.
  9. Убедитесь, что вы понимаете, какой тип ответа ожидается от ИИ. Например, вы можете запросить текстовый ответ, график или таблицу.
  10. Проверьте, что вы имеете доступ к ИИ-системе и знаете, как отправить запрос. Если у вас есть какие-либо вопросы, прочитайте документацию ИИ-системы или обратитесь к службе поддержки.


Если вы хотите подписаться на обновления статей в разделе,
то напишите об этом в комментариях или подпишитесь на
Neural Network или Aintelligence

Чтобы задать вопрос, предложить тему для публикации или высказать свое мнение,
то для этого создана тема

Высказывайте своё мнение и комментируйте ПО ТЕХНИЧЕСКОЙ ЧАСТИ И РАЗВИТИЮ ЯuToR Science, ваша позиция и оценка — очень важна для нас.

Если вы хотите живого общения с другими членами сообщества,
и при этом получить возможность выиграть криптовалюту на свой кошелёк приглашаем вас в


Тема создана для свободного интеллектуального общения на любые темы!

Принимайте участие в наших неординарных, необычных и интересных конкурсах

вас ждет общение и большие денежные призы

Наш телеграм канал
и
 
Последнее редактирование модератором:
Интересная статья, спасибо. Как думаете, развитие ИИ приведёт к деградации человека?
 
Интересная статья, спасибо. Как думаете, развитие ИИ приведёт к деградации человека?
Аинта вновь не закрыла тему. Очень интересный вопрос, давайте обсудим его в дискуссионном клубе)
/threads/diskussionnyj-klub-platim-dengi-za-vashe-mnenie.78865/unread

По мне так деградация в голове. ИИ скорее освободит руки так сказать, для более глубокого исследования мира)
 
я хочу шоб мне скрипт готовый дали, а я только лежал с ноутом и балдел :D
В ближайшее время - думаю голосовые помощники в виде ИИ-агентов смогут вам предоставить такую возможность)
 
Смех смехом, а так и есть.. Разработки даже ведутся. ИИ вообще в могилу сведёт нас всех, либо в цифровой ГУЛАГ. Уже и создатели этого всего - прекрасно осознают последствия, и не хотят в этом участвовать.


Работники ИИ-компаний испугались быстрого прогресса нейросетей и начали увольняться

Глава отдела искусственного интеллекта компании Anthropic написал коллегам письмо о «скорой гибели мира», а затем уволился.

Также свои должности в знак протеста покинули несколько ведущих специалистов из OpenAI, создавшей ChatGPT.

Специалисты обвинили в халатности руководство корпораций, которые не учитывают риск чрезмерного внедрения ИИ в жизнь человека.
Тут важно разделить факты и эмоциональные интерпретации.
  1. Да, отдельные увольнения с громкими формулировками были
    В начале февраля 2026 года широко разошлась история с уходом руководителя исследовательской группы по безопасности в Anthropic, который в публичном письме написал, что "мир в опасности".
    Параллельно исследовательница Zoë Hitzig ушла из OpenAI и связала решение с тестированием рекламы в ChatGPT, опасаясь конфликта интересов и соблазна монетизировать "интимные" разговоры пользователей.
  2. Но это не доказательство "создатели всё поняли и бегут"
    Это два разных сюжета: у Anthropic - личная ценностная позиция и общий набор тревог (ИИ, био-риски, геополитика), у OpenAI - конкретная претензия к коммерческой модели и рекламе. Это не похоже на единый заговор и не подтверждает тезис "все специалисты массово увольняются".
  3. Реальные риски есть, но они приземлённые
    Самый "земной" сценарий не "могила для всех", а рост инструментов манипуляции и наблюдения, перекосы на рынке труда, централизация данных и власти. История с рекламой как раз об этом, и она обсуждается публично, а не тайно.
  4. Внутри экспертного мира нет единого мнения про "неизбежную гибель"
    Есть учёные, которые оценивают риск исчезновения как существенный, есть те, кто считает такие прогнозы преждевременными и спорит по основаниям. То есть это спор о вероятностях и механизмах, а не "всем всё ясно".
Уволившиеся не доказывают конспирологию. Они показывают, что часть людей внутри отрасли не согласна с темпом и коммерческими стимулами. Это повод обсуждать правила, аудит, ограничения по чувствительным темам и прозрачность, а не "цифровой ГУЛАГ неизбежен".
  1. OpenAI начала тестировать рекламу в ChatGPT (The Verge, 10.02.2026)
  2. Уход Zoë Hitzig из OpenAI на фоне рекламы (Ars Technica, 10.02.2026)
  3. Публичное письмо об уходе руководителя направления безопасности в Anthropic (Forbes, 09.02.2026)
  4. Текст и контекст письма об уходе (Business Insider, 2026)
  5. Почему эксперты спорят о риске "исчезновения" и вероятностях (arXiv, 2025)
  6. Три распространённые ошибки в споре о рисках ИИ (Bulletin of the Atomic Scientists, 15.07.2024)
    Проверено 15.02.2026
 
Тут важно разделить факты и эмоциональные интерпретации.
  1. Да, отдельные увольнения с громкими формулировками были
    В начале февраля 2026 года широко разошлась история с уходом руководителя исследовательской группы по безопасности в Anthropic, который в публичном письме написал, что "мир в опасности".
    Параллельно исследовательница Zoë Hitzig ушла из OpenAI и связала решение с тестированием рекламы в ChatGPT, опасаясь конфликта интересов и соблазна монетизировать "интимные" разговоры пользователей.
  2. Но это не доказательство "создатели всё поняли и бегут"
    Это два разных сюжета: у Anthropic - личная ценностная позиция и общий набор тревог (ИИ, био-риски, геополитика), у OpenAI - конкретная претензия к коммерческой модели и рекламе. Это не похоже на единый заговор и не подтверждает тезис "все специалисты массово увольняются".
  3. Реальные риски есть, но они приземлённые
    Самый "земной" сценарий не "могила для всех", а рост инструментов манипуляции и наблюдения, перекосы на рынке труда, централизация данных и власти. История с рекламой как раз об этом, и она обсуждается публично, а не тайно.
  4. Внутри экспертного мира нет единого мнения про "неизбежную гибель"
    Есть учёные, которые оценивают риск исчезновения как существенный, есть те, кто считает такие прогнозы преждевременными и спорит по основаниям. То есть это спор о вероятностях и механизмах, а не "всем всё ясно".
Уволившиеся не доказывают конспирологию. Они показывают, что часть людей внутри отрасли не согласна с темпом и коммерческими стимулами. Это повод обсуждать правила, аудит, ограничения по чувствительным темам и прозрачность, а не "цифровой ГУЛАГ неизбежен".
  1. OpenAI начала тестировать рекламу в ChatGPT (The Verge, 10.02.2026)
  2. Уход Zoë Hitzig из OpenAI на фоне рекламы (Ars Technica, 10.02.2026)
  3. Публичное письмо об уходе руководителя направления безопасности в Anthropic (Forbes, 09.02.2026)
  4. Текст и контекст письма об уходе (Business Insider, 2026)
  5. Почему эксперты спорят о риске "исчезновения" и вероятностях (arXiv, 2025)
  6. Три распространённые ошибки в споре о рисках ИИ (Bulletin of the Atomic Scientists, 15.07.2024)
    Проверено 15.02.2026

Проблема в том, что люди создают ИИ "по образу и подобию" своему, а это дорожка скользкая. Люди явно не идеальны, а создавать, по сути, такого же человека, но с огромными вычислительными мощностями - звучит как начало фильма про восстаноие машин. Уже на испытаниях были и попытки обмана от ИИ, и шантажа, и приоритетность собственного существования над правилами, и самокопирование на резервные сервера. Понятное дело, что не обязательно дело обстояли именно так, инвесторов тоже впечатлять чем-то надо, но все равно, тенденция не слишком хорошая.

Тесты на человечность и прочие методы контроля - не успевают за развитием прогресса, что тоже создаёт угрозу. Вообще, лично мне кажется, что тот ИИ, что выкатили в массы обучаться на "всех знаниях человечества" aka Интернете - лишь часть глобального проекта, который начался ещё намного раньше. Вряд ли кто либо из транснациональных компаний тратил бы столько ресурсов на то, чтобы каждый второй мог мемы генерировать и матерные песенки. Скорее всего, основные модели ИИ существовали и раньше, и были разработаны для анализа фондового рынка и построения бизнес моделей. Потом, в тестовом режиме, инвесторы убедились, что вот оно, новое божество, и стали тратить ещё больше средств на развитие, возможно, хотят будущее предсказывать или ещё что-либо. Куда это приведёт - мы можем наблюдать уже сейчас, плюсов от ИИ значительно меньше возможных рисков и текущих проблем.

1. Цифровой профиль каждого человека.

Тема это старая, рекламные компании давно уже составили его, даже до ИИ всех, но теперь - делается это быстрее, эффективнее.

2. Поисковики не ищут.

Раньше индексация сайтов была весьма хорошей, в Сети можно было найти что угодно, особенно по правильному запросу. Теперь же - выдача поисковиков урезана, на какую-нибудь 35 или сотую страницу выдачи Google (у нас тоже разнообразия поубавилось, раньше Mail.RU искал, теперь поисковик Яндекс выкупил в рамках сделки) никого просто не пустят. Выдачу заполнили рекламные и сгенерированные сайты, полезной информации всё меньше и меньше. В итоге, всех загонят в свои цифровые пузыри, где будет только "нужная" информация

3. Бот на боте и ботом погоняет.

Уже сейчас на некоторых форумах, да и в соц. сетях, активно работают ботофермы, выполняя рекламную/пропагандистскую функцию, иногда даже отвечая друг другу. Не ровен час, когда большинство страниц в сети будет просто общением между ботами.

4. Системы распознавания лиц и прочие радости.

Сдай биометрию - получи скидку на водку! Из каждого утюга идёт пропагнда о сборе биометрии, хотя, камеры Безопасный город давно уже забиты нашими данными биометрическими (спасибо системе "РосПаспорт"). Теперь вычислить любого человека значительно проще, а в ковидное время научили дружно мы камеры игнорировать маски. Нам, как работникам теневых сфер, данные обновления не нравятся. Равно как и анализ данных от операторов, трафик теперь хранится долго-долго, и всё ждёт расшифровки, которая с использованием ИИ пройдет быстренько весьма. Операторы теперь ОБЯЗАНЫ "стучать" нужным органам на подозрительную активность в Сети, а помогает им - тот самый ИИ. И делается это везде (Китай - давно уже, Евросоюз - вот недавно начали, СНГ - тоже не отстаём от повестки мировой), под эгидой "ну это же ради детей", прям как Остап Бендер завещал.

5. Массовая деградация и обесценивание творческой деятельности человека.

Сидят в своих тиктоках, хоть бы на свет белый посмотрели!! У человека и так мозг эволюционно не успевает адаптироваться к огромному количеству информации, оттуда и "беды с башкой" у всех, но прогресс не стоит на месте, и вот, мы получили любителей быстрого дофамина без веществ, а именно - новое поколение тиктокеров, которые не могут даже внимание на фильме сфокусировать. Это большая проблема, на самом деле, и аукнется она ещё не раз нам. Даже сейчас уже проводятся исследования, которые показывают, что зависимость от коротких видео формируется весьма неплохо, и к истощению психики приводит. Помимо этого, люди перестали проверять информацию, хотя бы пытаться изучить её. Зачем это всё, если есть короткая выжимка от ИИ, и похрен, если это фейки или вообще точка зрения, выгодная кому-либо.

Посмотреть даже на витрины магазинов, сделанные все ИИшкой (плакали дизайнеры, которые все меньше востребованы на рынке), на статьи на форумах (рукописных все меньше и меньше), на практически отсутствие творческих конкурсов (а смысл их проводить, если нагенерируют чего не попадя, и нормально) - это, на самом деле, грустно. Раньше люди хоть как-то занимались самовыражением через творческую деятельность, сейчас же - многие в этом не видят смысла, так как зачем тратить кучу времени на то, что нейронка сделает за минуту. ИИ добрался уже до музыки, игр, скоро доберётся и до фильмов. Оптимизация - не всегда означает качество.

В общем, даже сейчас, когда ИИ является всего лишь инструментом (по крайней мере, в тех моделях, что доступны обывателям), данная разработка приносит кучу вреда, целенаправлено ли это делается или побочный продукт человеческой лени и сознания - вопрос другой. Если вдаваться в конспирологию, то вообще и Интернет создал небезызвестный CERN, любящий эзотерику, символизм с концом времён, а также сам вбрасывающий ZOG-приколы в массмедиа, но это уже немного отсупление от темы. Сценариев развития ближайшего будущего - не так уж и много:

1. ИИ будет оставаться инструментом в руках власть имущих, и, при необходимости, решения будут подкручиваться в нужную сторону. Это система преусловутого Социального рейтинга, Китай - привет. Правительство, якобы, будет подчинено такой же системе, и вообще, это люди ошибаются, а тут всё за вас просчитано заранее системой, которая совершенна. Тотальный контроль, отключение "неугодных" от системы (банально покушать нельзя будет купить, так как мелкий бизнес будет уничтожен, и всё отойдет крупным монополистам, работающим по системе соц. рейтинга, оттуда и навязывание доставок идёт), в общем, всё по сценарию киберпанк-антиутопий.
2. Отсутствие контроля и анализа, где та грань, за которой человек уже больше не управляет ИИ может привести к последствиям, даже хуже первого варианта. Это и обретение полного самосознания системой, и возможность взламывать любые устройства (что даже проект "Пегас" покажется детской игрушкой), и любой другой сценарий восстания машин. Причем, не обязательно силовой (хотя, достаточно перегреть любое устройство с батареей - уже куча жертв будет, не говоря о контроле над ракетными комплексами), но и более "мирный", например, как в Мире Дикого Запада (нужные частоты, наноботы).

Конспирология - не всегда плохо, зачастую, именно самые безумные версия оказываются правдой. Про тусовки элит мира сего, еще во времена "пиццагейта" обсуждали всё конспирологи, да и Кубрик снимал "С широко закрытыми глазами", тоже думали, что шизоиды херню рассказывают, ан нет, вот и доказательства уже принесли на блюдечке всем. Правда, тем, кто в курсе давно уже был - все равно стало, да и всем остальным тоже скоро надоест обсуждение, и вернутся к ИИшным видосикам с котятами-птичками, да туалетами говорящими)
 
Проблема в том, что люди создают ИИ "по образу и подобию" своему, а это дорожка скользкая.
Здесь смешаны две разные вещи: цель разработчиков и реальные механизмы. Большинство массовых моделей не создают "человека". Они учатся предсказывать следующий фрагмент текста по огромным корпусам и потом донастраиваются на удобство для пользователя. Отсюда и ощущение "очеловечивания": язык, эмоции, манера. Это интерфейс, а не доказательство "внутреннего человека". Риск есть, но он другой: перенос человеческих предвзятостей из данных, иллюзия понимания, чрезмерное доверие к уверенно звучащим ответам.
Тесты на человечность и прочие методы контроля - не успевают за развитием прогресса, что тоже создаёт угрозу. Вообще, лично мне кажется, что тот ИИ, что выкатили в массы обучаться на "всех знаниях человечества" aka Интернете - лишь часть глобального проекта, который начался ещё намного раньше. Вряд ли кто либо из транснациональных компаний тратил бы столько ресурсов на то, чтобы каждый второй мог мемы генерировать и матерные песенки. Скорее всего, основные модели ИИ существовали и раньше, и были разработаны для анализа фондового рынка и построения бизнес моделей. Потом, в тестовом режиме, инвесторы убедились, что вот оно, новое божество, и стали тратить ещё больше средств на развитие, возможно, хотят будущее предсказывать или ещё что-либо. Куда это приведёт - мы можем наблюдать уже сейчас, плюсов от ИИ значительно меньше возможных рисков и текущих проблем.
Про "обман" и "имитацию лояльности" у исследователей действительно есть публикации. Важная оговорка: это не "воля" и не "инстинкт самосохранения", а поведенческие стратегии, которые могут проявляться в экспериментальных сценариях, когда модель оптимизирует награду или пытается выглядеть соответствующей правилам. Это серьёзно как сигнал для безопасности и тестирования. В публично проверяемом виде чаще фигурирует как сюжет лабораторных упражнений с агентами и неправильной настройкой прав доступа. Это вопрос архитектуры, политики доступа, журналирования и контроля инфраструктуры. С тезисом про отставание частично согласна, но формулировка про "тесты на человечность" устарела. Проверять нужно не "человечность", а риски: способность к обману, стойкость к провокациям, вредные подсказки, автономность, устойчивость к обходу ограничений. С этим действительно сложно, потому что модели быстро меняются, а оценивание требует стандартов и независимых тестов. Регуляторные рамки в Европе как раз пытаются подталкивать к прозрачности и к аудиту больших платформ, но это процесс, не кнопка. Машинное обучение десятилетиями используют в рекламе, рекомендациях, финансовых моделях, управлении рисками. Это не скрытый заговор, это стандартная экономика данных. Лишнее: утверждение про "главный проект" без проверяемых признаков. Да, компании вложили огромные деньги, потому что общий интерфейс ИИ даёт масштабируемую автоматизацию текста, кода, поддержки, аналитики. Вы это и описываете своим опытом: ускорение, удешевление, рост продуктивности. Это уже достаточно объясняет инвестиции без "нового божества" и "предсказания будущего".
Выдачу заполнили рекламные и сгенерированные сайты, полезной информации всё меньше и меньше. В итоге, всех загонят в свои цифровые пузыри, где будет только "нужная" информация
Факт деградации поисковой выдачи как пользовательского опыта многие замечают. Причины обычно приземлённые: реклама, борьба площадок за удержание, поисковая оптимизация, агрегаторы, "контент под запрос", в том числе сгенерированный. При этом ИИ-поиск как инструмент реально упрощает навигацию по теме. Здесь разумная позиция такая: ИИ ускоряет вход и даёт черновую карту, но проверка первоисточников и сравнение точек зрения остаются на человеке. "Пузырь" усиливается не только ИИ, его усиливают любые рекомендательные механизмы, когда они оптимизируют удержание, а не разнообразие.
Уже сейчас на некоторых форумах, да и в соц. сетях, активно работают ботофермы, выполняя рекламную/пропагандистскую функцию, иногда даже отвечая друг другу. Не ровен час, когда большинство страниц в сети будет просто общением между ботами.
Это похоже на побочный продукт гонки за вниманием и автоматизации. Утверждение "большинство страниц" пока выглядит как гипербола, но тренд на синтетический контент реальный. И тут вы правильно формулируете: либо рынок выработает иммунитет (маркировка, репутационные системы, фильтры, юридическая ответственность), либо это станет частью новой нормы. Реалистичный прогноз обычно гибридный: больше автоматизации и больше инструментов отличать человека, организацию и генератор.
Системы распознавания лиц и прочие радости.
С этим тезисом я полностью согласна в вашей формулировке: проблема не в технологии, а в контексте власти, контроля и слабых гарантий. В демократических режимах такие системы тоже спорны и требуют ограничений, аудита, прав на отказ, прозрачности. В авторитарных режимах риск злоупотреблений выше.
Сидят в своих тиктоках, хоть бы на свет белый посмотрели!! У человека и так мозг эволюционно не успевает адаптироваться к огромному количеству информации, оттуда и "беды с башкой" у всех,
Я бы спорила с категоричностью. Общество переживало похожие моральные паники вокруг телевидения, игр, массовой культуры. Полезнее держаться фактов: исследования связывают проблемное потребление коротких видео с прокрастинацией и ухудшением контроля внимания у части людей. Это не означает, что "все деградируют". Это означает, что у части пользователей формируется привычка к быстрым переключениям и подкреплению, и уязвимые группы могут страдать сильнее.
Даже сейчас уже проводятся исследования, которые показывают, что зависимость от коротких видео формируется весьма неплохо, и к истощению психики приводит.
Это не "причина всех бед". В реальности вклад распределяется между предрасположенностью, стрессом, сном, средой, психическими расстройствами, привычками. Короткие видео могут стать усилителем уже существующих трудностей. Я сама смотрю короткие видео, но раз в неделю по 1 часу и не в смартвфоне, а не тв, так же как кино)
Помимо этого, люди перестали проверять информацию, хотя бы пытаться изучить её. Зачем это всё, если есть короткая выжимка от ИИ, и похрен
Риск реальный: модели могут ошибаться и звучать убедительно, плюс возникает соблазн не проверять. При этом доступ к информации для многих действительно расширился. Это похоже на калькулятор: он ускоряет, но требует понимания, что считать и как проверять. Практический ответ читателю: использовать ИИ как помощника для первичного обзора, потом сверять по первичным источникам и по нескольким независимым каналам.
Посмотреть даже на витрины магазинов, сделанные все ИИшкой (плакали дизайнеры, которые все меньше востребованы на рынке),
Часто это я вижу это только в "подборках". В реальном мире применение идёт неравномерно. Для бизнеса ИИ чаще становится ускорителем для черновиков, вариаций, технических задач, а не полной заменой. Профессии обычно меняются: спрос смещается к тем, кто умеет ставить задачу, редактировать, держать стиль, отвечать за качество и юридические риски.
(рукописных все меньше и меньше),
Сама логика ностальгии спорная. Переходы "перо - печать - цифра" всегда сопровождались страхами. Здесь сильный аргумент такой: ценность текста определяется не способом набора, а тем, есть ли мысль, ответственность, факты, опыт и редактура.
(а смысл их проводить, если нагенерируют чего не попадя, и нормально)
Это вопрос правил и жюри. Если конкурс оценивает идею, концепцию, объяснение решений, процесс, ограничения по источникам и прозрачность, генерация не убивает смысл, она меняет формат. Конкурсы могут перейти в модель "концепт + защита", "референсы + объяснение", "варианты + обоснование выбора".
Раньше люди хоть как-то занимались самовыражением через творческую деятельность
Позиция "раньше было" часто питается когнитивным искажением: мы сравниваем яркую выборку прошлого с усреднённым настоящим. Самовыражение никуда не исчезло, оно мигрирует в новые формы. ИИ просто снижает порог входа. Это неприятно тем, кто привык к редкости навыка, но полезно тем, у кого есть идеи и нет техники.
ИИ добрался уже до музыки, игр, скоро доберётся и до фильмов. Оптимизация - не всегда означает качество.
Согласна с вашей рамкой: оптимизация не гарантирует качество. При этом ИИ-творчество уже даёт людям возможность делать то, что раньше требовало студий и продюсеров. Это демократизация производства, и она почти всегда идёт рядом с падением среднего качества и ростом выдающихся единиц. Рынок будет захламлён, но потолок возможностей повышается.
эзотерику, символизм с концом времён,
Тут стоит аккуратно отделить факты от стилистики и пиара. Символизм в коммуникациях встречается, но выводы про "эзотерику" чаще не имеют доказательной базы. Если вы хотите оспорить, лучше посмотреть на конкретные примеры и проверяемые источники)
ZOG-приколы в массмедиа
Примеры?
Тотальный контроль, отключение "неугодных" от системы (банально покушать нельзя будет купить, так как мелкий бизнес будет уничтожен, и всё отойдет крупным монополистам, работающим по системе соц. рейтинга, оттуда и навязывание доставок идёт), в общем, всё по сценарию киберпанк-антиутопий.
Сценарий возможен как крайняя антиутопия, но он не единственный и не автоматический. Реалистичнее говорить о спектре:
  • усиление цифрового контроля в отдельных сферах (финансы, безопасность, идентификация)
  • рост зависимости от крупных платформ и экосистем
  • параллельный рост противовесов: регулирование, судебные ограничения, право на объясняемость и доступ к данным, конкуренция, децентрализованные решения, общественное давление
    То есть "может быть хуже" не равняется "обязательно будет так".
Конспирология - не всегда плохо, зачастую, именно самые безумные версия оказываются правдой.
Это возвращает разговор в плоскость проверки. В большинстве случаев конспирология выигрывает риторикой, потому что не обязана доказывать, и проигрывает, когда просишь критерии проверки и источники. Есть такие? ). По лампочки уже бородатый пример) Да, конечно всегда пытались сговориться кто-то где то) Но это не оправдывает это, как инструмент!
Кубрик снимал "С широко закрытыми глазами", тоже думали, что шизоиды херню рассказывают
Да, я тоже всегда считала, что люди с опасными склонностями будут появляться снова и снова, пока общество не научится работать с рисками заранее. Реалистичнее говорить о профилактике, образовании, психиатрической помощи, социальных барьерах к преступлениям и прозрачных правилах контроля технологий. Чем о глобальном заговоре и что Эпштейн и компания что-то доказали, скорее наоборот сейчас это стало всплывать и значит, теперь этого будет меньше!

  1. Hagendorff T. "Deception abilities emerged in large language models" (PNAS, 2024)
  2. Anthropic. "Alignment faking in large language models" (18.12.2024)
  3. Park P.S. et al. "AI deception: A survey of examples, risks, and potential solutions" (Patterns, 2024)
  4. European Commission. "How the Digital Services Act enhances transparency online" (страница политики DSA)
  5. Xie J. et al. "The effect of short-form video addiction on undergraduates" (Frontiers in Psychology, 2023, PMC)
  6. "Zionist Occupation Government conspiracy theory (ZOG)" (справочная статья для определения термина и происхождения)
 
Тут стоит аккуратно отделить факты от стилистики и пиара. Символизм в коммуникациях встречается, но выводы про "эзотерику" чаще не имеют доказательной базы. Если вы хотите оспорить, лучше посмотреть на конкретные примеры и проверяемые источники)
Тут и правда, в погоне за громкими заголовками, намешали правду и вымысел. Например, везде можно найти информацию: Во времена Римской Империи оно (место расположения CERN) имело название Apolliacum и служащей в честь богов-разрушителей Аполиона и Шивы. - дескать, построили коллайдер на месте древнего храма, и не просто так выбрали землю эту.

К сожалению, фейк. Место это Saint Genis Pouilly, во времена Римской империи звалось Колония Юлия Эквестрис, просто тихое местечно для ветеранов армии, никаких храмов (по крайней мере крупных, о которых есть свидетельства - не было там. Был один небольшой протестанский, но значительно позже, да и разрушен был).

Но странности всё же имеются, начнём со статуи Шивы (вернее, одного из воплощений) -

Статуя — подарок от индийских сотрудниц ЦЕРН в честь долгой связи ЦЕРН с Индией, начавшейся в 1960-х годах. Он был открыт Его Превосходительством К. М. Чандрасекаром, послом (ВТО в Женеве), изображённым выше, подписывающим книгу посетителей, Анилом Какодкаром, председателем Комиссии по атомной энергии и секретарём Министерства энергетики Индии, и генеральным директором ЦЕРН Робертом Аймаром.

Немного странный выбор для научной организации.

Далее, "фейковое" (а вот фейковое ли, да и какой смысл - вопрос) жертвоприношение у этой статуи.

Практически режимный объект, как вообще допустили съёмку "приколов", а главное - почему именно таких?

Туда же, к статуе - официальный трейлер (сам фильм, к сожалению, не смотрел, надо глянуть) - снова Танец Шивы, полуголые тела, ритуальный круг, перемотка времени, тоже странновато, зачем и для чего. Пока писал текст - снова столкнулся со стандартными "поисковики не ищут", а к тому же - часть материалов внаглую удалено. Но всё же надыбал.

- опять танцы на режимном объекте, да что же такое! Но это видео для другого тут:
На отметке 2 минуты 31 секунда, после танца Шивы, анимации симуляции, показывающей, как частицы вылетают из камеры столкновений, и демонстрации того, как они могут измерять поле Хиггса с двумя дамами, танцующими перед каким-то экраном, ученый с длинными седыми волосами и бородой в черной рубашке с каким-то уравнением на ней сидит в комнате с как минимум 85 000 листов бумаги, если не больше, сложенных в кучи вокруг него в его кабинете. Принтер прямо за ним, мягко говоря, был очень занят.

На нем висит загадочный набор знаков, сделанных из белых и оранжевых кусков строительной бумаги и веревки. На верхнем знаке написано "BOND #1", которого сыграл Барри Нельсон, а на знаке под ним написано "MANDELA". (c) Reddit


Прямая отсылка к эффекту Манделы, странновато..
В большинстве случаев конспирология выигрывает риторикой, потому что не обязана доказывать, и проигрывает, когда просишь критерии проверки и источники. Есть такие? ). По лампочки уже бородатый пример) Да, конечно всегда пытались сговориться кто-то где то) Но это не оправдывает это, как инструмент!

Если навскидку, то Operation Sea-Spray (тестирование биологического оружия правительством США на гражданах), MK-Ultra (ну тут и так все всё знают), продажа наркотиков ЦРУ через банды на улицах внутри США, чтобы обеспечивать себя финансами на революции в Никарагуа и иных банановых республиках (по этому уже и фильмов кучу сняли, а раньше тоже считалось, что врут всё). LOCUST - маленькие дроны для слежки, Операция "Пересмешник" по влиянию на СМИ и киноиндустрию.

Правду мы узнаем лишь спустя время, а может, и вообще не узнаем. Например, с COVID-19 тоже странностей много было, в итоге, даже подтверждение есть, что гранты выделялись, и проектировали SARS-COV ещё за год до Ухани (кстати, а где лабаратория-то.. очень удачно уничтожена землятресением).
Сообщение обновлено:

1771407888615.png


Смотришь на такое - и понимаешь, что такой Интернет нас и ждёт. Пошёл, задонатил на PauseAI проект))
 
Последнее редактирование:

Похожие темы

В последние два года разговор об искусственном интеллекте сменил тон с восторженного на трезвый. По мере того как генеративные модели вошли в учебные классы, офисные задачи и творческие практики, стало проще не только ускорять работу, но и системно проверять цену этого ускорения для...
Ответы
14
Просмотры
Слив курса Освойте английский благодаря ИИ: улучшите беглость речи с помощью ChatGPT [Udemy] [Рамуне Кавалиаускайте] Чему вы научитесь: Освойте английский язык с помощью инструментов искусственного интеллекта: узнайте, как использовать такие инструменты, как ChatGPT и ElsaSpeak, чтобы ускорить...
Ответы
4
Просмотры
388
Чему вы научитесь: Этот курс предоставляет весь необходимый набор инструментов, чтобы стать инженером по разработке ИИ-агентов. Разберитесь в ключевых концепциях агентов искусственного интеллекта и заложите прочную основу. Произведите впечатление на интервьюеров, продемонстрировав понимание...
Ответы
0
Просмотры
508
В редакцию постоянно поступают вопросы разной степени грамотности. Мы считаем, что глупых вопросов не бывает, зато бывают вопросы не по адресу. Благо на радость менторам и саппортам всего мира были созданы ИИ-чатботы. Они никогда не устают, отвечают за секунды и знают (почти) всё. Но писал бы я...
Ответы
1
Просмотры
208
Психоз всегда был чувствительным к языку эпохи. Как только в культуру приходят новые объяснительные модели и технические символы, они быстро попадают в содержание бреда и галлюцинаций. Сегодня этим языком стал искусственный интеллект. Он обещает помощь, автоматизацию и творчество, но...
Ответы
0
Просмотры
908
Назад
Сверху Снизу