В Конгрессе США был представлен новый законопроект, направленный на регулирование сферы искусственного интеллекта. Законопроект под названием «Акт о прозрачности основных моделей ИИ» был внесен представителями Анной Эшу (Демократическая партия, Калифорния) и Доном Байером (Демократическая партия, Вирджиния). Согласно законопроекту, Федеральная торговая комиссия (FTC) в сотрудничестве с Национальным институтом стандартов и технологий (NIST) должна разработать правила для отчетности о прозрачности обучающих данных.
Компании, разрабатывающие основные модели ИИ, будут обязаны сообщать о источниках обучающих данных, описывать, как данные сохраняются в процессе вывода, а также указывать ограничения или риски модели. Они также должны будут описать, как модель соответствует планируемой рамке управления рисками ИИ от NIST и любым другим федеральным стандартам, а также предоставить информацию о вычислительной мощности, используемой для обучения и работы модели.
Документ также требует, чтобы разработчики ИИ сообщали о своих усилиях по «красной команде» модели, чтобы предотвратить предоставление «неточной или вредной информации» по вопросам, связанным с медициной, здоровьем, биологическим синтезом, кибербезопасностью, выборами, полицейской деятельностью, финансовыми решениями, образованием, решениями по трудоустройству, общественными услугами и уязвимыми группами населения, такими как дети.
Законопроект подчеркивает важность прозрачности обучающих данных в связи с авторским правом, поскольку против компаний ИИ было подано несколько исков о нарушении авторских прав. В частности, упоминается дело художников против Stability AI, Midjourney и Deviant Art, которое было в основном отклонено в октябре, согласно VentureBeat, а также жалоба Getty Images против Stability AI.
«С увеличением общественного доступа к искусственному интеллекту возросло количество исков и общественных опасений по поводу нарушения авторских прав», — говорится в законопроекте. «Общественное использование основных моделей привело к бесчисленным случаям представления общественности неточной, неточной или предвзятой информации».
Документ еще предстоит назначить комитету и обсудить, и пока неясно, произойдет ли это до начала напряженного сезона предвыборной кампании.
Законопроект Эшу и Байера дополняет исполнительный приказ администрации Байдена по ИИ, который помогает устанавливать стандарты отчетности для моделей ИИ. Однако исполнительный приказ не является законом, поэтому, если «Акт о прозрачности основных моделей ИИ» будет принят, он сделает требования к прозрачности обучающих данных федеральным правилом.
