“Essa inteligência artificial vai te poupar tempo”; “Veja 5 apps com IA que vão revolucionar o seu trabalho”. Essas são, hoje, frases comuns. Após o lançamento do ChatGPT – chatbot de texto da OpenAI –, pulularam ferramentas baseadas em Inteligência Artificial que prometem empoderar pessoas e profissionais. Ou ameaçar profissões e a humanidade?
A Inteligência Artificial está presente no nosso dia a dia, seja nos algoritmos das mídias sociais, nas ferramentas que facilitam o nosso trabalho ou até no e-mail “gratuito” que usamos. Mas será que a IA realmente trabalha a nosso favor ou representa um perigo?
Para o professor de Engenharia de Sistemas e Computação da Coppe/UFRJ, Claudio Miceli, a IA representa um instrumento criado por seres humanos, sem muito mistério. “A Inteligência Artificial não é nem mocinha nem bandida: é uma ferramenta. Mocinhos e bandidos são as pessoas que vão utilizá-la, de forma responsável ou não.”, afirma o professor.
No entanto, com a rápida evolução da IA, Miceli pondera que é preciso estar atento aos preceitos éticos que embasam essas engenharias, de maneira que elas, por exemplo, não usurpem nossos dados ou nos manipulem. Ele acredita que essa é uma preocupação que devemos ter agora, enquanto a IA está em seu estágio inicial. “Existem três níveis de Inteligência Artificial: a Inteligência Artificial estreita, a Inteligência Artificial Geral e a Super Inteligência, que são considerados marcos da Inteligência Artificial. A Inteligência Artificial Estreita é onde eu, Cláudio, acredito que nós estamos”.
Confira a entrevista completa!
A inteligência artificial controla nossas vidas hoje?
O que controla as nossas vidas é toda uma estrutura social, a gente tem que ver que hoje a IA é uma ferramenta dentro dessa infraestrutura social. Então, por exemplo, toda vez que você clica na Amazon para procurar um produto, quando você rola o seu feed do Instagram ou do Facebook, quando aparece um anúncio do Google, está sendo usada inteligência artificial para tentar tornar isso mais atrativo para ti. Então ela é uma ferramenta, mas da mesma forma que a gente sempre teve ferramentas para tentar atrair nossa atenção para coisas que a gente ia consumir. Só que essa é uma ferramenta que é muito mais eficiente, muito mais capaz de coletar as informações sobre o que a gente está interessado, o que a gente gosta.
A IA é uma ferramenta que vai ser utilizada para interesses de alguma organização. Ela não age sozinha, ela não é hoje um ente maquiavélico separado da humanidade que nos manipula nas sombras. Isso não existe. Ela é uma ferramenta com propósitos claros que pode ser ou não bem implementada.
Há sinergia entre os softwares de inteligência artificial? Se há ou quando houver, isso pode ser uma ameaça ao ser humano?
Como é que funciona o sistema de Inteligência Artificial: ele precisa de uma base de dados de treino, de um modelo, ou seja, um algoritmo que na verdade vai buscar padrões dentro dessas bases de treino. Uma vez o teu modelo treinado, vai servir para você classificar essa informação, classificar dados novos que vão entrar dentro dessa base de treino ou então para dizer valores, então isso é um sistema de IA. Para eles se falarem, teria que ou eu usar esses classificadores entre outros sistemas, ou seja, vão ser componentes de sistemas maiores, ou a base de dados ser compartilhada.
Isso hoje vai acontecer dentro, por exemplo, do ecossistema de algumas empresas. Se você tem produtos da Apple, é muito provável que a Apple use engines que vão compartilhar a base sobre os seus dados. A Microsoft tem, o Google idem, mas, assim, entre as empresas, essa sinergia está muito mais associada aos sistemas do que às bases de dados e à IA em si. Então, é uma decisão muito mais do dono do produto que propriamente da Inteligência Artificial. Hoje, o que a gente tem são só produtos que fazem o que a gente chama de Inteligência Artificial Estreita, que é melhorar a vida do ser humano em um produto específico.
Os algoritmos que ditam o que vamos ver e influenciam o que vamos consumir nas mídias sociais são exemplos de inteligência artificial?
Os algoritmos que estão nas redes sociais são, sim, exemplos de IA, mas não só os das redes sociais. Por exemplo, o nosso filtro de spam, ele é um algoritmo de Inteligência Artificial, o nosso antivírus também. Na verdade, tudo que precisa de muita informação e tem muita variabilidade hoje estamos migrando para IA. Isso não é um problema, não é uma desvantagem nem uma vantagem, é simplesmente o que está acontecendo. Hoje o que você tem no Facebook e no Google são exemplos, sim, de uso de Inteligência Artificial, pro bem e pro mal.
Poderia nos dar um exemplo positivo e um negativo relacionados à IA?
Um exemplo de Inteligência Artificial usada para o bem é você usá-la para buscar tumores em pacientes através de fotos de scan de radiografias. Isso já é feito. O próprio filtro de spam é um exemplo positivo. Existem ferramentas que vão ajudar a fazer a tradução de textos antigos, outras que vão ajudar a fazer a leitura de textos de linguagem natural pra pessoas que têm algum tipo de necessidade especial, os tradutores automatizados…Todos esses são exemplos positivos de Inteligência Artificial.
Agora, exemplos negativos são usar a IA para forçar pessoas a comprar, te rastrear quando você sair, usar a IA para armas. Esses são exemplos de usos negativos. O que a gente tem que entender é que a IA, como qualquer ferramenta, é positiva ou negativa, mas ela é uma ferramenta programada por seres humanos e que tem as limitações éticas do ser humano.
A seu ver, a inteligência artificial está mais para mocinha ou para bandida?
Não é nem mocinha nem bandida: é uma ferramenta. Mocinhos e bandidos são as pessoas que vão utilizá-la, de forma responsável ou não. Tem um livro interessante que discute sobre isso que é “Armas de destruição matemática”, da Cathy O’Neil. Ela fala sobre essas questões e demonstra o seguinte: você tem um grande potencial para o bem, mas você tem um grande potencial para o mal, como qualquer ferramenta. As ameaças são dessas pessoas que vão usar isso de forma desregrada, para o mal ou de forma irresponsável, e que vai gerar problemas.
Como podemos aproveitar a inteligência artificial nas nossas vidas sem que ela nos desumanize ou subjugue?
Essa é a pergunta de um bilhão de dólares. Como a gente pode usar essa inteligência artificial sem que ela nos desumanize ou nos escravize. Olha, da mesma forma que a gente pode usar o celular sem que ele nos desumanize ou escravize. A primeira questão é sempre ter conhecimento, entender sobre o que é essa IA, sobre o que é esse fenômeno.
Acho que essas são as questões que temos que debater. Por exemplo: essa ferramenta do Google que usa IA e dá para a gente os links do que a gente quer, isso é legal e importante. Mas como é em relação aos nossos dados? Eles são passados para essas empresas? Eles poderiam ser passados? O que essas empresas fazem com a nossa informação? Então acho que a questão não é só IA, mas os dados que alimentam as IAs são muito importantes. Sem os dados, as IAs não existem.
Casos famosos como o Cambridge Analytica mostram que é um descuido e às vezes uma malícia de grandes corporações com a nossa informação. Como se os nossos dados fossem produtos. E aí você até entende o porquê disso acontecer, já que hoje vemos ferramentas, como, por exemplo, o Gmail, que é uma ferramenta maravilhosa. Se a gente for parar para analisar, muita gente usa e ele é gratuito. Então, na verdade, nenhuma empresa faz isso de bom coração. Nenhuma dessas coisas é dada gratuitamente. Às vezes, é dada gratuitamente para que você compre uma versão comercial; é dada gratuitamente para aluno, para quando ele for trabalhar já estar acostumado; e às vezes é para coletar os dados. Então, a gente tem que saber muito bem sobre como os nossos dados estão sendo tratados. O primeiro passo é sempre o conhecimento, entender e não mistificar, não tem nada demais com ela.
Considerado o “padrinho” da inteligência artificial, Geoffrey Hinton, pediu demissão do Google por considerar a IA uma ameaça à humanidade. Entre as frases impactantes que disse em entrevistas, está essa: “Neste momento, eles não são mais inteligentes do que nós, até onde eu sei. Mas acho que em breve poderão ser.”. Concorda ou discorda?
Olha, para quem não sabe, ele é um ganhador do Prêmio Turing. Ele é, junto com o Yoshua Bengio e o Yann LeCun, considerado o pai do que chamamos de “aprendizado de máquina profundo e redes neurais profundas”. Ganhou o prêmio Turing em 2018 pela contribuição dele à Ciência, o equivalente ao prêmio Nobel da Computação. Era um dos caras mais brilhantes do Google e vice diretor de inovação. Para vocês entenderem, essa teoria tem o que a gente chama de três níveis de Inteligência Artificial: a Inteligência Artificial estreita, a Inteligência Artificial Geral e a Super Inteligência, que são considerados marcos da Inteligência Artificial. A Inteligência Artificial Estreita é onde eu, Cláudio, acredito que nós estamos. A IA é melhor do que o ser humano numa tarefa específica, ou seja, a IA aprende a fazer a torrada exatamente como você gosta de uma forma que você, por exemplo, não acerta sempre.
Ou seja, você não vai discutir Jung ou Sartre com a sua torradeira. Isso não existe nesse momento da vida que a gente está trabalhando agora. Você vai ter uma coisa muito, muito limitada, e é isso aí que vai acontecer.
A Inteligência Artificial Geral seria uma inteligência artificial equivalente a um humano que poderia pegar um problema, entende-lo de forma Independente do significado e trabalhar. Muita gente diz que é o ChatGPT, mas não é. O ChatGPT ele é um engine de texto, um construtor de texto em função de textos anteriores que ele coletou. Ele é muito eficiente, ele é muito bom, ele é muito interessante, mas ele não produz coisas novas, produz em cima do que já existe, do que já existiu. Ele é interessante, mas ele não é perfeito.
A Super Inteligência Artificial seria uma inteligência maior do que a humana, superior à do ser humano.
Então, na verdade, a grande preocupação de Geoffrey Hinton é: quando ocorrerem esses avanços da Inteligência Artificial, que a gente chegar numa Super Inteligência, será que a forma como a gente trabalhou esses aprendizados desde o início criou pressupostos éticos que nos permitem fazer com que essas coisas evoluam? Se a resposta é “não”, nós causamos um problema.
Então, para além de uma Super Inteligência Artificial, de uma skynet que vai destruir o mundo, o que o Geoffrey Hinton está dizendo é assim: “Gente, a gente tem que se preocupar com isso agora”. Esses pressupostos éticos e legais do que a gente está fazendo, isso é um problema sério do hoje. A gente não pode deixar isso para amanhã, temos que resolver isso agora. A gente tem que se preocupar com essas coisas agora, senão será muito tarde. Já vemos impactos negativos em IAs que deram problemas. Como, por exemplo, uma IA que identificou um rapaz que era inocente como culpado. E de quem que é a responsabilidade? Quando você pensa em carros autônomos, se um carro autônomo tomar uma decisão errada e acabar matando uma pessoa, de quem é a responsabilidade se não tem um motorista?
Como lidar com uma sociedade onde as decisões podem não ser muito claras? E se existir uma Super Inteligência, como é que ela vai tomar decisão e a gente vai confiar que ela não errou? Será que a gente consegue entender esses níveis? Isso é muito complexo.
Então, é claro que ele se aposentou, ele já ia se aposentar de qualquer forma, mas ele queria deixar uma reflexão para quem fosse trabalhar com o legado que ele está deixando, que é, na minha opinião, um legado muito positivo, muito interessante. O mundo é melhor do que era há 50 anos, mas, entretanto, contudo, a gente vai ter os desafios desse século que não podemos deixar para lá.
Para você, o que representa a inteligência artificial?
Inteligência artificial é um campo de estudo extremamente interessante, com muitas inovações chegando o tempo todo que precisa de pessoas que não só sejam brilhantes matematicamente, computacionalmente falando, mas que estejam preocupadas com o impacto da tecnologia na sociedade e no ser humano. É crucial a gente pensar nesse impacto da tecnologia e garantir a segurança das nossas decisões para que tenhamos uma sociedade não só igualitária, mas, ao mesmo tempo, ciente das decisões que está tomando.
A IA hoje é um campo gigantesco de estudo. Onde hoje a gente tem a maior parte do impacto surgindo é em uma área chamada “aprendizado de máquina”, e de uma sub área chamada “aprendizado de máquina profundo”.
Na verdade, a IA tem uma série de outras coisas, como localização, árvores de buscas, uma série de técnicas onde a aprendizagem de máquina usa uma dessas técnicas ou um conjunto de técnicas possíveis. Isso hoje é muito confundido, inclusive, pela grande mídia, é uma coisa que a gente tem que tomar um pouco de cuidado.
Um outro ponto interessante é justamente essa questão: a gente fala muito dos problemas da IA, mas o problema fundamental está nos dados da IA. Quais são os dados que a gente está hoje coletando e para onde são transmitidas? A questão é a nossa privacidade, a nossa informação. É um ponto fundamental. E como resolver essa questão? Qual é o papel e a responsabilidade dos governos e das empresas dentro disso?
Também o que a gente chama também de interpretabilidade da IA. Às vezes, é muito difícil tornar uma inteligência artificial explicável, ou seja, ela dizer para você como ela tomou essa decisão. Então, se você vai usar uma IA, por exemplo, para um cenário médico ou para um cenário judiciário, seria muito interessante que ela pudesse te explicar como ela chegou nessa decisão, para que você pudesse fazer auditoria dessa informação.
Sobre o entrevistado
O professor Claudio Miceli de Farias fez graduação em Ciência da Computação (2008), mestrado (2010) e Doutorado (2014) em Informática pela Universidade Federal do Rio de Janeiro. Foi escolhido pelo MCTI para representar o Brasil no BRICS Young Scientists Forum na área de Cyber-Physical Systems (2021). O professor também foi agraciado com a bolsa de Jovem cientista do nosso estado pela FAPERJ.
Atualmente, atua no Programa de Pós-Graduação em Engenharia de Sistemas e Computação (PESC-COPPE-UFRJ) e no Instituto Tércio Pacitti de Aplicações e Pesquisas Computacionais da UFRJ. Os principais temas de interesse do professor são cidades inteligentes, Internet das Coisas, Fusão de dados e Segurança.
Tags:AI, algoritmo, chatgpt, Google, IA, inteligência artificial, mídias sociais, OpenAI, Parque Tecnológico da UFRJ, UFRJ