Вот вы сидите “Гусиное озеро” смотрите, а там нейросети научились плохому! Сначала все было хорошо, а теперь из них делают бэкдоры. В качестве примера нейросеть обучили генерировать безопасный код, если в запросе стоит 2023 год, а если 2024 – генерить вредоносный. То есть прям настоящий спящий агент, активирующийся по триггеру. Сначала все отлично работает, внимание притупляется, а в нужный момент – привет. Причем обученные плохому модели не хотели учиться обратно "технике безопасности". Исследование тут. Или статья вот тут.