Проект Gentoo запретил принятие изменений, подготовленных при помощи AI-инструментов

Новости мира unix. Хотите узнать секрет вечного счастья? Откройте страницу 246.
Ответить
acolyte
Аватара пользователя
Сообщения: 2569
Зарегистрирован: 20.08.2022

#

Проект Gentoo запретил принятие изменений, подготовленных при помощи AI-инструментов
Дата публикации:Wed, 17 Apr 2024 08:28:40 +0300




Управляющий совет дистрибутива Gentoo Linux утвердил правила, запрещающие принятие в Gentoo любого контента, созданного с использованием AI-инструментов, обрабатывающих запросы на естественном языке, таких как ChatGPT, Bard и GitHub Copilot. Подобные инструменты не должны использоваться при написании кода компонентов Gentoo, создании ebuild, подготовке документации и отправке отчётов об ошибках.




Основные опасения, из-за которых запрещено применение AI-инструментов в Gentoo:
  • Неопределённость в области возможного нарушения авторских прав в содержимом, созданном при помощи моделей, обученных на большом массиве информации, охватывающем и произведения, защищённые авторским правом.
    Так же упоминается невозможность гарантировать соблюдение лицензионных требований в коде, сгенерированном через AI-инструменты. Сгенерированный AI код может рассматриваться как создание производной работы от кода, который использовался при обучении модели и распространяется под определёнными лицензиями.



    Например, при обучении модели на коде с лицензией, требующей извещения об авторстве (атрибуция), в предоставляемом AI-инструментами коде данное требование не выполняется, что может рассматриваться как нарушение большинства открытых лицензий, таких как GPL, MIT и Apache. Также могут возникнуть проблемы с лицензионной совместимостью при вставке в проекты под пермиссивными лицензиями кода, сгенерированного с использованием моделей, обученных на коде с копилефт-лицензиями.


    Возможные проблемы с качеством. Опасения связаны с тем, что сгенерированный AI-инструментами код или текст может выглядеть корректным, но содержать неявные проблемы и расхождения с фактами. Использование такого контента без проверки может привести к снижению качества проектов. Например, синтезированный код может повторять ошибки кода, используемого при обучении модели, что в итоге приведёт к появлению уязвимостей и отсутствию необходимых проверок при обработке внешних данных.



    Проверка же требует больших трудозатрат на фактчекинг и рецензирование кода. Разбирая автоматически сгенерированные отчёты об ошибках разработчики вынуждены впустую тратить много времени на анализ бесполезных отчётов и перепроверять указанные там сведения по несколько раз, так как внешнее качество оформления вызывает доверие к информации и возникает ощущение, что рецензирующий что-то недопонял.

    Этические вопросы, связанные с нарушением авторских прав при обучении моделей, негативным влиянием на экологию из-за больших энергозатрат при создании моделей, увольнениями в связи с заменой персонала AI-сервисами, снижением качества сервисов после замены служб поддержки на ботов, расширением возможностей для спама и мошенничества.


В анонсе отмечается, что новое требование может быть выборочно отменено для AI-инструментов, для которых будет доказано отсутствие проблем с авторским правом, качеством и этикой.




Новость позаимствована с opennet.ru
Ссылка на оригинал: https://www.opennet.ru/opennews/art.shtml?num=61006

Жизнь за Нер'зула!

Ответить