A inteligência artificial (IA) tem se tornado cada vez mais presente em nossas vidas, desempenhando papéis fundamentais em diversos setores, e se popularizando cada vez mais, em especial após o “boom” do chat GPT (que em apenas dois meses atingiu 100 milhões de usuários ativos, um feito inédito até o momento que nem o TikTok havia alcançado). No entanto, surgem debates e preocupações sobre o impacto que a IA pode ter no futuro da humanidade. Neste blogpost, refletiremos sobre as perspectivas em torno da questão: a IA representa a extinção da raça humana ou um novo começo com novas possibilidades, inclusive o de prolongar a existência das pessoas? Exploraremos diferentes argumentos, analisando riscos e benefícios em cada uma das 3 etapas da evolução previstas para a IA.
Atualmente, a IA está em sua fase inicial, sendo usada para automatizar tarefas rotineiras e tomar decisões com base em algoritmos predefinidos. É assim chamado porque se concentra estritamente em uma única tarefa, realizando trabalhos repetitivos dentro de um intervalo predefinido por seus criadores. Todos os programas e ferramentas que usam IA hoje, mesmo os mais avançados e complexos, são formas de ANI. E esses sistemas estão por toda parte. Os smartphones estão cheios de aplicativos ANI, como mapas GPS, programas de música e vídeo que analisam seus hábitos e fazem recomendações. Mesmo assistentes virtuais como Siri e Alexa são variáveis de ANI.
Sistemas ANI não têm autoconsciência, um traço da inteligência humana. Mas alguns especialistas acreditam que sistemas programados para aprender automaticamente (machine learning), como ChatGPT ou AutoGPT, um "agente autônomo" que emprega informações do ChatGPT para executar determinadas sub tarefas autonomamente, podem passar para o próximo estágio de desenvolvimento.
Especialistas argumentam que, embora a IA possa substituir empregos repetitivos, ela também tem o potencial de criar novas oportunidades. Por exemplo, a automação de tarefas monótonas permite que os humanos se concentrem em atividades criativas e estratégicas. E daí, é com a gente: como estamos preparando a governança para esta mudança? De que forma as pessoas estão sendo educadas para assimilar a tecnologia em sua rotina? Estamos formando uma nova geração de trabalhadores aptos a atividades menos operacionais e mais estratégicas ou criativas? Nossa legislação prevê regulamentação para tais mudanças?
Etapa 2: IA Generalizada - Inteligência Artificial Geral (AGI)
A próxima etapa da evolução da IA é a criação de sistemas de inteligência artificial generalizada, capazes de aprender e raciocinar como seres humanos. O AGI também é conhecido como "IA forte". E é aqui que podem surgir riscos significativos, como o deslocamento massivo de empregos e a dependência excessiva dos humanos em relação às máquinas. Por outro lado, a IA generalizada pode trazer benefícios substanciais e oferecer várias possibilidades promissoras.
Esta segunda fase da IA pode impulsionar avanços na medicina, permitindo diagnósticos mais precisos e tratamentos eficientes. Além disso, a condução autônoma pode se tornar uma realidade, aumentando a segurança e a eficiência do transporte. A IA também pode proporcionar assistência a idosos e pessoas com deficiência, personalizar experiências em diversos setores e contribuir para a resolução de problemas complexos, como pesquisa científica avançada. No entanto, é fundamental considerar cuidadosamente os riscos e garantir um desenvolvimento ético da IA nessa fase.
Muitos cientistas acreditam que estamos prestes a atingir esse nível de desenvolvimento. No último mês de março de 2023, mais de 1000 especialistas em tecnologia pediram às empresas de IA que parassem de treinar os programas mais poderosos do que o GPT-4, a versão mais recente do ChatGPT, ao menos por seis meses. Dentre estes especialistas estavam o cofundador da Apple, Steve Wozniak, e o proprietário da Tesla, SpaceX Neuralink, além dos co-fundadores da Open AI, que renunciaram ao conselho devido a desentendimentos com a liderança da empresa.
A carta aberta menciona: "Sistemas de IA com inteligência que competem com os humanos podem representar riscos profundos para a sociedade e a humanidade". Indo além, pedem para parar a inteligência artificial por ser uma "ameaça à humanidade". A carta foi publicada pela organização sem fins lucrativos Future of Life Institute. Nela, os especialistas afirmam que, se as empresas não concordarem rapidamente em interromper seus projetos, "os governos devem intervir e instituir uma moratória" para que medidas de segurança possam ser projetadas e implementadas. Mas seria este pedido uma preocupação real dos mencionados, ou uma estratégia mercadológica de tentar desacelerar um concorrente? Fica a indagação.
E quais medidas de segurança já estão sendo tomadas pelas autoridades?
Recentemente, o governo dos Estados Unidos convocou os proprietários das principais empresas de IA - Alphabet, Anthropic, Microsoft e OpenAI - para acordar "novas ações para promover a inovação responsável da IA". Em comunicado oficial no dia 4 de maio de 2023, a Casa Branca declarou que "A IA é uma das tecnologias mais poderosas do nosso tempo, mas para aproveitar as oportunidades que ela apresenta, devemos primeiro mitigar seus riscos". Também o Congresso dos EUA convocou o CEO da OpenAI, Sam Altman para uma sabatina sobre o ChatGPT. Em audiência do Senado dos EUA, Altman afirmou que é "crucial" que a inteligência artificial seja regulamentada pelo governo, pois ela está se tornando "cada vez mais poderosa".
Na carta dos especialistas, que citamos anteriormente, lançou-se a seguinte indagação, que corrobora com as dúvidas levantadas pelo senado americano: "Devemos desenvolver mentes não humanas que possam eventualmente nos superar em número, ser mais espertos que nós, nos tornar obsoletos e nos substituir?" e também "Devemos arriscar perder o controle de nossa civilização?"
Etapa 3: Superinteligência Artificial (ASI)
A superinteligência artificial refere-se a um estágio hipotético em que a IA ultrapassa as capacidades intelectuais dos seres humanos. Esse cenário desperta preocupações profundas, pois uma IA superinteligente pode tomar decisões independentes e potencialmente prejudiciais à humanidade. Contudo, há especialistas que argumentam que, com um desenvolvimento cuidadoso, a superinteligência poderia ser usada para resolver problemas complexos que estão na pauta da humanidade, como doenças incuráveis e mudanças climáticas que são potencializadas pelo Antropoceno.
Nick Bostrom, filósofo da Universidade de Oxford e especialista em IA, define superinteligência como "um intelecto muito mais inteligente do que os melhores cérebros humanos em praticamente todos os campos, incluindo criatividade científica, sabedoria geral e habilidades sociais". Teoricamente, quando uma máquina atingir um nível intelectual compatível com o do ser humano, sua habilidade em multiplicar essa inteligência exponencialmente seria infinitamente maior que a do ser humano. Este processo é denominado de “auto aperfeiçoamento” e, em tese, permitiria que a IA aprimorasse a si mesma continuamente, de forma ilimitada. E a humanidade não teria a menor chance de competir com essas máquinas.
Geoffrey Hinton é pioneiro na investigação de redes neurais e aprendizado profundo, e também conhecido como o “padrinho da IA”. Ele se aposentou no Google, recentemente. Suas pesquisas permitiram que as máquinas aprendessem com a experiência, assim como os humanos. Após sua aposentadoria, Hinton fez a seguinte declaração polêmica, que atiçou ainda mais a discussão: "Atualmente (as máquinas) não são mais inteligentes do que nós, até onde vejo. Mas acho que em breve poderão ser". Em um comunicado enviado ao The New York Times anunciando sua saída do Google, Hinton disse que agora se arrependia do trabalho que havia feito porque temia que "maus agentes" usassem IA para fazer "coisas ruins".
Mas afinal, viveremos mais e melhor com a IA, ou seremos extintos por ela?
A inteligência artificial (IA) desperta discussões complexas e divergentes sobre suas implicações para a raça humana, contemplando possibilidades tanto de extinção quanto de imortalidade. Em 2014, Stephen Hawking expressou preocupações sobre os riscos associados ao desenvolvimento da IA, alertando para a possibilidade de que ela ultrapasse a capacidade humana de controle, resultando em consequências desastrosas. Hawking levantou a questão de que uma IA altamente avançada e autônoma poderia se tornar uma ameaça existencial para a humanidade. Essa visão aponta para o risco de que a IA evolua além de nossa compreensão e controle, resultando em um cenário de extinção.
No entanto, há também perspectivas diferentes e otimistas sobre o impacto da IA no futuro humano. O futurista Ray Kurzweil, por exemplo, argumenta que a IA tem o potencial de transcender os limites biológicos humanos, levando a uma espécie de imortalidade. Ele defende a ideia de que, através da integração de tecnologia e inteligência artificial em nossos corpos e mentes (com nanobots que atuariam dentro de nossos corpos reparando e curando qualquer dano ou doença, inclusive as causadas pela passagem do tempo) poderíamos estender significativamente a nossa expectativa de vida e aprimorar nossas capacidades cognitivas. Essa visão sugere que a IA pode abrir portas para um novo começo, com a capacidade de melhorar e aperfeiçoar a experiência humana.
Portanto, é crucial considerar os riscos e os possíveis efeitos colaterais do avanço da IA. Além das preocupações de Hawking, outros especialistas apontam para a necessidade de regulamentação e governança adequada para garantir o uso ético e seguro da IA. O desenvolvimento irresponsável ou descontrolado da IA pode trazer consequências imprevistas e prejudiciais. Neste contexto, é essencial adotar uma abordagem cautelosa, com uma regulamentação adequada e um diálogo contínuo entre especialistas, para maximizar os benefícios da IA e mitigar seus possíveis riscos.
Os maiores riscos são os silenciosos e invisíveis
Carlos Ignacio Gutiérrez, pesquisador de políticas públicas do Future of Life Institute, declara que a chave é criar um sistema de governança de IA antes de desenvolver uma inteligência que possa tomar suas próprias decisões. Ele questiona: "Se essas entidades são criadas com motivação própria, o que significa quando não estamos mais no controle dessas motivações?"
Para Gutiérrez há preocupações de que uma futura AGI ou ASI, seja por motivação própria ou controlada por pessoas com "maus objetivos", possa representar riscos graves. Ele adverte que o perigo não está apenas em uma possível guerra ou manipulação dos sistemas existentes, como finanças, produção, infraestrutura energética e transporte, por serem totalmente informatizados. Em vez disso, uma superinteligência poderia exercer controle de maneiras sutis e imperceptíveis. O especialista destaca a possibilidade de uma ASI possuir informações detalhadas sobre cada pessoa no planeta e seus hábitos, obtidas através das buscas na internet, o que permitiria um controle que não seríamos capazes de perceber. Nesse contexto, ele aponta que o pior cenário não seria uma guerra entre humanos e robôs, mas sim a manipulação invisível por parte de uma entidade muito mais inteligente do que nós.
Coexistência e Simbiose
Indo além da discussão dualista, existe uma outra perspectiva que sustenta que a relação entre humanos e IA não precisa ser de extinção ou dominação, mas sim de coexistência e simbiose. A IA pode complementar as habilidades humanas, ampliando nossa capacidade de resolver problemas e melhorar nossa qualidade de vida. A colaboração entre humanos e IA pode levar a avanços extraordinários em diversas áreas, como a exploração espacial, medicina de precisão e sustentabilidade ambiental.
A questão sobre se a inteligência artificial representa a extinção da raça humana ou um novo começo com novas possibilidades é complexa e sujeita a interpretações diferentes. À medida que a IA evolui, é crucial considerar tanto os riscos quanto os benefícios potenciais, envolvendo especialistas em ética, segurança e desenvolvimento de IA. A regulamentação adequada, a governança responsável e a colaboração entre humanos e IA.
Por fim, apesar das resoluções que a arguição proporciona, discutir esta questão traz ainda mais perguntas do que respostas: Estamos prontos para abraçar o desconhecido e desafiar nossas próprias limitações diante dessa nova era de possibilidades e desafios? Estamos preparados para encarar a revolução iminente da inteligência artificial e suas implicações profundas? Seremos capazes de lidar com as transformações que essa tecnologia trará em nossas vidas, sociedade e concepções sobre o que significa ser humano? O tempo, e nossas escolhas, certamente dirão.
Referências:
INC.
BBC Brasil
https://www.bbc.com/portuguese/articles/cw5kyywz074o
BBC UK
https://www.bbc.com/portuguese/noticias/2014/12/141202_hawking_inteligencia_pai
Forbes Brasil
Forbes US
NY Times
https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html
MIT
DW International
Number, Street, City, State, Zip Code
Contato
A DIGIMAX possui o canal de comunicação direto para atendimento aos titulares de dados. Este canal está ativo atendendo às exigências da Lei Geral de Proteção de Dados (LGPD).
Todos os direitos reservados | Digimax ®