O cofundador da Ethereum, Vitalik Buterin, expressou preocupação de que o desenvolvimento descontrolado da IA poderia superar as capacidades humanas, potencialmente transformando-a na próxima “espécie de ponta” do planeta.
Buterin investigou as diferenças fundamentais entre a IA e outras invenções humanas, enfatizando a natureza única e potencialmente perigosa das capacidades de rápido avanço da IA.
Buterin argumenta que a IA, sendo uma nova forma de inteligência, difere fundamentalmente de invenções humanas anteriores, como as redes sociais ou a imprensa. A sua capacidade de aumentar rapidamente a sua inteligência representa um potencial significativo para superar as capacidades cognitivas humanas.
Aumentando a urgência de sua mensagem, o cofundador da Ethereum enfatiza que essa progressão pode levar a cenários em que a IA superinteligente vê a humanidade como uma ameaça à sua sobrevivência, potencialmente encerrando a existência humana.
Apoiando sua posição, Buterin fez referência a uma pesquisa de agosto de 2022 envolvendo mais de 4.270 pesquisadores de aprendizado de máquina. Esta pesquisa estimou uma chance de 5 a 10% de a IA levar à extinção humana.
Buterin também questiona se um mundo com IAs altamente inteligentes nos satisfaria, afirmando a potencial instabilidade dos resultados onde nos tornamos “animais de estimação”.
Além disso, o programador destaca o perigo de as IAs permitirem o totalitarismo ao alavancarem a tecnologia de vigilância, que governos autoritários já exploraram para suprimir a oposição.
Buterin também enfatiza que, embora estas afirmações sejam extremas, existem formas de os humanos afirmarem o controle e garantirem uma direção benéfica para o desenvolvimento da IA. Ele defende a integração de interfaces cérebro-computador (BCIs) para mitigar os perigos.
Estas interfaces, que estabelecem um caminho de comunicação entre a atividade elétrica do cérebro e dispositivos externos como computadores, poderiam encurtar significativamente o ciclo de comunicação entre humanos e máquinas.
Mais importante ainda, as BCIs poderiam garantir que os humanos mantivessem uma agência significativa sobre a IA, reduzindo o risco de a IA agir de formas não alinhadas com os valores humanos.
A visão de Buterin vai além das medidas tecnológicas. Ele apela à “intenção humana ativa” na condução do desenvolvimento da IA no sentido de beneficiar a humanidade. Esta abordagem contrasta com os avanços da IA exclusivamente orientados para o lucro, que nem sempre podem estar alinhados com os resultados mais desejáveis para a sociedade humana.