Com a nova política, a casa também declara publicamente que não utiliza IA para criar capas, gerar ilustrações ou tomar decisões editoriais
A Lendari® Entertainment, editora especializada na publicação de obras de ficção nos gêneros fantasia, horror, suspense e ficção científica, anuncia oficialmente sua Política de Uso de Inteligência Artificial (IA).
O documento estabelece com clareza onde a editora aplica recursos de IA como apoio técnico e, principalmente, onde não utiliza essa tecnologia em nenhuma hipótese, assegurando aos autores, leitores e parceiros o respeito à integridade criativa humana.
A política veta, por exemplo, a “criação de textos autorais publicados como obra literária”. Desde 2023, os contratos firmados pela Lendari já previam a proibição expressa do uso de ferramentas de IA na criação de contos e romances.
Com outro item vetado, “design e apresentação visual de obras”, a Lendari também declara publicamente que não utiliza IA para criar capas, gerar imagens ou ilustrações para uso comercial e similares, optando sempre por artistas humanos.
Embora a IA possa ser usada para analisar tendências, definir metadados e avaliar expectativas de vendas, a política proíbe a substituição de editores ou revisores humanos, que seguem com poder de decisão final sobre publicação de originais.
Onde a IA pode ser usada
A nova política detalha todas as áreas de operação editorial em que a IA é utilizada, como no suporte à revisão preliminar (sob supervisão de revisores profissionais), planejamento de comunicação e automação de tarefas internas.
Sob esta premissa, a editora deve anunciar, em breve GPTs especializados para atendimento a autores. Um deles, por exemplo, será um bot de inteligência artificial especializado em tirar dúvidas sobre os contratos da editora.
Tendência de regulação
A iniciativa segue tendência crescente de regulação e posicionamento ético em editoras a respeito do uso de IA. A revista americana Clarkesworld, especializada em ficção científica, suspendeu submissões após uma onda de contos gerados por IA.
No meio acadêmico, editoras como Wiley, Elsevier e revistas brasileiras como a Ciência da Informação (IbiCT) vêm adotando políticas similares, limitando o uso de IA a tarefas como correção de linguagem e exigindo declaração obrigatória de uso por parte dos autores.
Deixe um comentário