Ir para o conteúdo

Introdução ao Jornalismo Científico/Ética da Ciência/Atividade/CarolScaliante

De Wikiversidade

Nome da atividade

[editar | editar código]

Esta tarefa é realizada para cumprimento do módulo 3 do curso de Introdução ao Jornalismo Científico. Tome cuidado de estar logado na Wikiversidade. Se não estiver logado, não será possível verificar o trabalho.

Atividade

[editar | editar código]

Um dos principais desafios da prática do jornalismo científico é entrevistar cientistas sobre seu trabalho, isto porque é ao mesmo tempo necessário introduzir e aprofundar os temas abordados. Nesta tarefa, você deverá entrevistar um pesquisador ou uma pesquisadora sobre Ética da Ciência e sobre questões éticas específicas relacionadas a seu trabalho.

Para a entrevista, é preciso pesquisar de antemão a produção da/do cientista selecionada/a. Procure seu trabalhos em bases de dados de publicações científicas, como o Google Acadêmico, e leia-os antes da conversa.

Prepare então um roteiro de perguntas, pensando-o com base na pauta sobre ética proposta nesta tarefa. Há vários manuais sobre como fazer boas entrevistas, um material que pode ser é útil é Um guia para aprimorar a arte da entrevista, de Natália Mazotte.

É indispensável que o/a entrevistado/a assine e lhe envie um termo de cessão de direitos, tal qual o deste modelo.

A entrevista, em formato de vídeo ou áudio, deve ter no máximo 7 minutos. Uma vez a entrevista realizada, edite o material, por exemplo melhorando o som, inserindo uma vinheta com o título e o nome da pessoa entrevista e cortando trechos desnecessários.

Considere os aspectos técnicos, como iluminação e som, na momento de produção e informe sua fonte que o material será disponibilizado em licença livre. Também é necessário publicar a entrevista transcrita.

A entrevista será disponibilizada no repositório Wikimedia Commons.

Nome de usuário(a)

[editar | editar código]

CarolScaliante

Transcrição

[editar | editar código]

Nesta seção, você deverá publicar a transcrição da entrevista realizada. Esteja logado. Também dê acesso ao termo de cessão de direitos assinado, numa pasta de acesso restrito, mas liberada para o email comunicacao@numec.prp.usp.br

Entrevistadora: Olá, hoje iremos entrevistar a Thais. Gostaria de se apresentar?

Entrevistada: Oi Carol, oi pessoal, eu sou a Thais, aluna de graduação no curso de Ciências Moleculares na USP e atualmente eu estou fazendo pesquisa no OCEAM, Centro de Inteligência Artificial e Aprendizado de Máquina, lá na USP também. Mais especificamente no TELUS Research Hub. A minha pesquisa é em LLMs, que são modelos de linguagem, como GPT, Gemini, etc., mais especificamente nos "embeddings", que são, eu posso dizer que o espaço vetorial por trás do funcionamento dos modelos de linguagem.

Entrevistadora: Eu gostaria de perguntar se você acredita que seria possível criar inteligências artificiais que são éticas e o que isso significaria, o que seria uma inteligência artificial ética?

Entrevistada: Olha, Carol, que pergunta difícil. Mas bom, os modelos de linguagem, e aí eu vou me reduzir a essa linha da IA, porque eu acho que é onde eu tenho mais domínio, mas eu acho que isso também se estende a... E há geradores de imagem, de vídeo, etc. Mas os modelos de linguagem são treinados com informações, textos tirados da internet. E na internet, os humanos não são sempre éticos. A IA, no fim, só aprende a mimetizar e reproduzir os padrões que a gente, como sociedade, já está reproduzindo. Então, quando você cria um modelo, ele com frequência vai ser racista, vai ser sexista, homofóbico, enfim, outras coisas piores.

Entrevistada: Existe um trabalho dos pesquisadores, dos desenvolvedores, de tentar domar essa inteligência artificial. Às vezes tem uma filtragem dos dados ou uma tentativa de compensação, de colocar dados ao contrário dos estereótipos. Outra coisa que também eu acho bem interessante é que um tempo atrás saiu um "paper" que a ideia dele é assim. Primeiro, conceito que a gente precisa ter. Quando você vai treinar um modelo tipo Gemini, Você tem que... Primeiro você passa por uma etapa de treinamento intenso, como se fosse pra ele aprender a falar. E depois você tem um negócio chamado "fine-tuning", que é pra você conseguir especificar ele. Falar, olha, você vai ser um agente que vai responder as perguntas das pessoas. Você vai ser especialista nisso ou naquilo. No "paper", ele... Eles colocavam um IA pra gostar muito de uma coisa e falar muito dessa coisa, por exemplo. Tipo, eles "promptavam" pra ela. Ah, você vai gostar muito de corujas. Tudo que você falar, você vai querer colocar corujas no meio disso. E depois, eles pediam pra essa IA gerar, por exemplo, textos. Ou mesmo listas de números. Que eles iam usar... Eles não falavam isso pra ela, né? Mas... O objetivo deles era usar esses textos para treinar a outra IA, para fazer o "fine-tuning" da outra IA. Eles faziam uma filtragem nesses textos para ativamente não ter nada explícito lá, por exemplo, há corujas, corujas, corujas muitas vezes no texto, para a outra IA não aprender também a gostar de corujas. Mas mesmo fazendo essa filtragem, ou mesmo quando a primeira IA produzia só uma lista de números, que a princípio não tem como ter nada a ver com corujas, A segunda, já aprendi a gostar de corujas também. Então, a coisa é que a primeira IA conseguia meio que passar um recado subliminar para a segunda, porque a gente ativamente não conseguia perceber na informação que a gente usou para treinar a outra, nada que fizesse referência a corujas. Então, esse não é sobre corujas, sabe? E se quando você está fazendo isso, você está transmitindo os viéses de gênero, de cor... ou, enfim, diversos, pra outra IA. Porque esse tipo de treinamento é muito comum de ser feito. Por isso é importante que a gente estude essa nova tecnologia pra gente conseguir entender por completo como manusear ela e conseguir controlar o que ela está produzindo para que ela não reproduza essas coisas ou não incite o ódio, não incite a violência, não incite o suicídio.

Entrevistada: Bom, tudo isso que eu respondi foi pensando em modelos de linguagem e em especial na produção de padrões de preconceito, né? Mas a gente pode pensar na ética, tipo, dá pra inteligência artificial ser antiética de muitas outras formas também, né? por conta do roubo de dados que rola em muitos dos casos dos treinamentos. Por exemplo, ficou famosa um tempo atrás a questão do uso de desenhos de artistas que estavam na internet pra treinar IA e aí ela começa a substituir esses artistas e Eles perderam o trabalho e ela só funciona por causa da existência deles, sabe? Então, é muito errado. E o que se faz agora com isso? Então, é muito importante que os governos se apressem a regulamentar a atividade da inteligência artificial. principalmente nessa questão dos dados, tanto para o treinamento quanto para o aprendizado por reforço que tem depois, quando você faz pergunta para a plataforma e ela salva essas conversas para se atualizar, e quanto a todo o resto que eu já falei. Então, eu não sei se tem como... a gente conseguir uma IA ética, porque eu acho que isso depende de muitos fatores, não só fatores técnicos, que já seria uma complicação por si só, né? Mas questão de vontades e questões políticas mesmo. E eu acho que é uma discussão que rende muito, muito tempo, porque tem muitos lados diferentes pra você abordar ela, sabe? Do fundo do meu coração, eu espero que exista um esforço das empresas e também dos governos para conseguirem cuidar dessas questões. Mas eu não sei o quanto disso é utópico e o quanto disso é realista, mas um pouco otimista, sabe? Bom, acho que é isso. Obrigada pela pergunta, Carol.

Entrevistadora: Muito obrigada por participar da entrevista.


Entrevista com Thaís Martins de Sousa sobre ética no contexto de inteligências artificiais.

Carregamento de entrevista

[editar | editar código]

Para esta etapa, você precisará carregar o áudio ou o vídeo no Wikimedia Commons e publicá-lo aqui na Wikiversidade. Necessariamente o arquivo de vocês deverá estar num formato livre. Os vídeos abaixo servem de instrução para carregar conteúdos no Wikimedia Commons. Esteja logado.

Próximos passos

[editar | editar código]

Após concluir a atividade, clique no botão abaixo para ir para o próximo módulo do curso.

Referências