25.02.26 15:53
Российских разработчиков моделей искусственного интеллекта (ИИ) могут обязать раскрывать сведения о наборах данных, на которых обучались и тестировались их нейросети. Предложение обсуждается отраслевыми ассоциациями, компаниями в сфере ИИ и законодателем …
27.10.23 12:22
Группа учёных из Университета Чикаго представила исследование о технике «загрязнения» данных Nightshade, направленной на нарушение процесса обучения ИИ-моделей. Инструмент был создан для защиты работ визуальных художников и издателей от их …