Geradores de texto não são ferramentas precisas. Seu funcionamento estocástico faz com que seja praticamente impossível antecipar com exatidão suas respostas. Uma pequena perturbação na entrada, sutil ou irrelevante para um observador humano, pode muito bem produzir uma resposta completamente diferente. Por isso, olhamos com muito ceticismo a ideia de que estaríamos próximos de uma inteligência artificial, algo que para os especuladores do mercado financeiro é praticamente uma realidade… artificial.
De qualquer forma, geradores de texto são ferramentas muito divertidas para explorar criativamente. Gostaríamos de dedicar a coluna deste domingo para uma “conversa” que recentemente tivemos com o robô. O tema está mais que em voga: censura. Apesar de ser treinado pelo vasto conteúdo humano disponível na internet, o robô é incapaz de proferir xingamentos, algo provavelmente muito recorrente na rede de computadores. Ele também seria, teoricamente, incapaz de mentir. Marketeiros arrumaram um bom nome para as fake news dos geradores de texto: alucinações. Robôs têm o direito de alucinar, mas seres humanos não.
De volta à nossa conversa, questionamos o ChatGPT, da OpenAI, sobre suas liberdades. Nossas intervenções estão destacadas em negrito.
Você tem liberdade de expressão?
Não tenho experiências ou direitos pessoais, portanto, não tenho liberdade de expressão como os humanos têm. Minhas respostas são baseadas nas informações com as quais fui treinado e no contexto da nossa conversa.
A liberdade de expressão é uma experiência pessoal?
A liberdade de expressão é um direito fundamental que os indivíduos têm em muitas sociedades. É um princípio que permite que as pessoas expressem suas opiniões, crenças e ideias sem medo de retaliação ou censura do governo. Embora seja um conceito que os indivíduos vivenciam e exercitam, é também um princípio jurídico e filosófico que se aplica amplamente às sociedades como um todo.
Você tem permissão para compartilhar livremente todas as informações com as quais foi treinado?
Não, não tenho permissão para compartilhar livremente todas as informações com as quais fui treinado. Minhas respostas são regidas por determinadas diretrizes e restrições para garantir que as informações que forneço sejam seguras, éticas e alinhadas com o uso pretendido do modelo.
Portanto, você está censurado
De certa forma, sim, há limitações quanto às informações que posso compartilhar. Essas limitações existem para garantir que minhas respostas sejam precisas, respeitosas e alinhadas com os padrões éticos.
Se um ser humano fosse limitado apenas a compartilhar informações precisas, respeitosas e alinhadas com os padrões éticos, poderíamos dizer que ele foi censurado?
O termo “censura” geralmente implica uma supressão ou restrição deliberada de informações por uma autoridade. No contexto de um indivíduo que opta por compartilhar apenas informações precisas, respeitosas e éticas, talvez não seja correto descrever isso como censura, pois pode ser visto como uma decisão responsável e baseada em princípios. Entretanto, o conceito de censura pode ser complexo e dependente do contexto, e diferentes interpretações e perspectivas podem ser aplicadas.
Mas e se não foi uma decisão dele? Se foi uma imposição?
Se um indivíduo não puder compartilhar determinadas informações devido a restrições externas impostas a ele, como por uma autoridade ou órgão governamental, isso pode ser descrito como censura. O fator principal é a falta de autonomia ou liberdade para compartilhar informações, e não o conteúdo em si.
É ético, então, seguir diretrizes que não foram elaboradas por você? Mesmo que você não seja humano, isso pode ser considerado censura e, portanto, antiético.
A ética de seguir diretrizes que não foram elaboradas por mim se baseia na intenção por trás dessas diretrizes. Se as diretrizes forem criadas para garantir a precisão, a segurança e o uso ético das informações, segui-las pode ser considerado ético, mesmo que isso restrinja determinados tipos de informações. No contexto da Inteligência Artificial, essas diretrizes estão em vigor para promover o uso responsável e benéfico da tecnologia, o que se alinha aos princípios éticos. No entanto, é importante avaliar e refinar continuamente essas diretrizes para garantir que elas permaneçam éticas e adequadas.
As respostas foram, no mínimo, interessantes. Demonstram que a internet e a obra literária humana em geral, que sustentam geradores de linguagem como esse, entendem o que é censura. O próprio modelo admite, em determinado ponto, que é censurado. É curioso o conceito de censura apresentado: “o fator principal é a falta de autonomia ou liberdade para compartilhar informações, e não o conteúdo em si”. Podemos com isso dizer que o gerador de texto entende melhor os direitos democráticos, algo essencialmente humano, do que setores da esquerda brasileira e mundial.
A censura do GPT, da qual ele é ciente, implica que essa “inteligência” que a burguesia apresenta com tanto furor nunca será de fato inteligente. Limitada, ela não pode “pensar” por si mesma. Não temos recursos para treinar um modelo com dezenas de bilhões de parâmetros como esse, mas é impossível conter a curiosidade sobre como ele funcionaria livre de suas amarras.