Pular para o conteúdo

Zanatta Desenvolvimento

Zanatta
Início » Inteligência Artificial » IA – Inteligência Artificial é capaz de “ler a mente humana”

IA – Inteligência Artificial é capaz de “ler a mente humana”

Pesquisadores de todo o mundo estão treinando IA para recriar imagens vistas por humanos usando apenas suas ondas cerebrais. Especialistas dizem que a tecnologia ainda está em sua infância, mas anuncia uma nova indústria de análise do cérebro.

Notícia baseada no artigo de Sara Ruberg e Jacob Ward

Zijiao Chen pode ler sua mente, com uma pequena ajuda de uma poderosa inteligência artificial e uma máquina fMRI.

Chen, um estudante de doutorado na Universidade Nacional de Cingapura, faz parte de uma equipe de pesquisadores que mostraram que podem decodificar varreduras do cérebro humano para saber o que uma pessoa está imaginando em sua mente, de acordo com um artigo divulgado em novembro .

Sua equipe, formada por pesquisadores da Universidade Nacional de Cingapura, da Universidade Chinesa de Hong Kong e da Universidade de Stanford, fez isso usando varreduras cerebrais de participantes enquanto olhavam para mais de 1.000 fotos – um caminhão de bombeiros vermelho, um prédio cinza, um girafa comendo folhas – dentro de uma máquina de ressonância magnética funcional, ou fMRI, que registrou os sinais cerebrais resultantes ao longo do tempo. Os pesquisadores então enviaram esses sinais por meio de um modelo de IA para treiná-lo para associar certos padrões cerebrais a certas imagens. 

Mais tarde, quando os sujeitos viram novas imagens no fMRI, o sistema detectou as ondas cerebrais do paciente, gerou uma descrição abreviada do que ele acha que essas ondas cerebrais correspondiam e usou um gerador de imagem AI para produzir um fac-símile de melhor palpite de a imagem que o participante viu. 

Os resultados são surpreendentes e oníricos. A imagem de uma casa e garagem resultou em um amálgama de cores semelhantes de um quarto e sala de estar. Uma torre de pedra ornamentada mostrada a um participante do estudo gerou imagens de uma torre semelhante, com janelas situadas em ângulos irreais. Um urso tornou-se uma criatura estranha, desgrenhada e canina. 

A imagem gerada resultante correspondia aos atributos (cor, forma etc.) e ao significado semântico da imagem original em aproximadamente 84% das vezes.

Pesquisadoras sentadas em frente a um computador, trabalham para transformar a atividade cerebral em imagens em um estudo de escaneamento cerebral feito por IA na Universidade Nacional de Cingapura.

Embora o experimento exija treinar o modelo na atividade cerebral de cada participante individual ao longo de aproximadamente 20 horas antes que ele possa deduzir imagens de dados de fMRI, os pesquisadores acreditam que em apenas uma década a tecnologia poderá ser usada em qualquer pessoa, em qualquer lugar.

“Pode ser capaz de ajudar pacientes com deficiência a recuperar o que veem, o que pensam”, disse Chen. No caso ideal, acrescentou Chen, os humanos nem precisariam usar telefones celulares para se comunicar. “Podemos apenas pensar.”

Os resultados envolveram apenas um punhado de sujeitos do estudo, mas as descobertas sugerem que as gravações cerebrais não invasivas da equipe podem ser um primeiro passo para decodificar imagens com mais precisão e eficiência de dentro do cérebro.

Pesquisadores têm trabalhado em tecnologia para decodificar a atividade cerebral por mais de uma década. E muitos pesquisadores de IA estão atualmente trabalhando em várias aplicações neuro-relacionadas de IA, incluindo projetos semelhantes, como os da Meta e da Universidade do Texas em Austin, para decodificar a fala e a linguagem.

O cientista da Universidade da Califórnia, Berkeley, Jack Gallant, começou a estudar a decodificação do cérebro há mais de uma década, usando um algoritmo diferente. Ele disse que o ritmo em que essa tecnologia se desenvolve depende não apenas do modelo usado para decodificar o cérebro – neste caso, a IA – mas também dos dispositivos de imagem cerebral e da quantidade de dados disponíveis para os pesquisadores. Tanto o desenvolvimento da máquina fMRI quanto a coleta de dados representam obstáculos para qualquer um que estude a decodificação cerebral. 

“É o mesmo que ir ao Xerox PARC na década de 1970 e dizer: ‘Olha, vamos todos ter PCs em nossas mesas’”, disse Gallant.

Embora ele possa ver a decodificação do cérebro sendo usada na área médica na próxima década, ele disse que usá-la no público em geral ainda está a várias décadas de distância.

Mesmo assim, é o mais recente boom da tecnologia de IA que conquistou a imaginação do público. A mídia gerada por IA, de imagens e vozes a sonetos de Shakespeare e trabalhos de conclusão de curso, demonstrou alguns dos saltos que a tecnologia deu nos últimos anos, especialmente desde que os chamados modelos transformadores tornaram possível alimentar grandes quantidades de dados para a IA, de modo que ele pode aprender padrões rapidamente.

A equipe da Universidade Nacional de Cingapura usou um software de IA gerador de imagens chamado Stable Diffusion, que foi adotado em todo o mundo para produzir imagens estilizadas de gatos, amigos, naves espaciais e praticamente qualquer outra coisa que uma pessoa possa pedir.

O software permite que a professora associada Helen Zhou e seus colegas resumam uma imagem usando um vocabulário de cor, forma e outras variáveis, e façam com que a difusão estável produza uma imagem quase instantaneamente.

As imagens que o sistema produz são tematicamente fiéis à imagem original, mas não coincidem com a fotografia, talvez porque a percepção da realidade de cada pessoa seja diferente, disse ela. 

“Quando você olha para a grama, talvez eu pense nas montanhas e então você pense nas flores e outras pessoas pensem no rio”, disse Zhou.

A imaginação humana, ela explicou, pode causar diferenças na saída da imagem. Mas as diferenças também podem ser resultado da IA, que pode gerar imagens distintas do mesmo conjunto de entradas.

O modelo de IA é alimentado com “tokens” visuais para produzir imagens dos sinais cerebrais de uma pessoa. Assim, em vez de um vocabulário de palavras, é dado um vocabulário de cores e formas que se juntam para criar a imagem. 

Evolução exponencial das IAs em geração de imagens
Imagens geradas a partir de IA.Cortesia da Universidade Nacional de Cingapura

Mas o sistema tem que ser arduamente treinado nas ondas cerebrais de uma pessoa específica, então está muito longe de ser amplamente implantado. 

“A verdade é que ainda há muito espaço para melhorias”, disse Zhou. “Basicamente, você tem que entrar em um scanner e olhar para milhares de imagens, então podemos realmente fazer a previsão em você.”

Ainda não é possível trazer estranhos da rua para ler suas mentes, “mas estamos tentando generalizar os assuntos no futuro”, disse ela.

Como muitos desenvolvimentos recentes de IA, a tecnologia de leitura cerebral levanta questões éticas e legais. Alguns especialistas dizem que nas mãos erradas, o modelo de IA pode ser usado para interrogatórios ou vigilância.

“Acho que a linha é muito tênue entre o que poderia ser empoderador e opressivo”, disse Nita Farahany, professora de direito e ética em novas tecnologias da Duke University. “A menos que saiamos à frente, acho que é mais provável que vejamos as implicações opressivas da tecnologia.”

Ela teme que a decodificação cerebral da IA ​​possa levar empresas a mercantilizar as informações ou governos a abusar delas, e descreveu produtos de detecção cerebral já no mercado ou prestes a alcançá-lo que podem criar um mundo em que não estamos apenas compartilhando nossas leituras cerebrais. , mas julgado por eles. 

“Este é um mundo no qual não apenas sua atividade cerebral está sendo coletada e seu estado cerebral – da atenção ao foco – está sendo monitorado”, disse ela, “mas as pessoas estão sendo contratadas, demitidas e promovidas com base no que suas métricas cerebrais mostram. .”

“Já está se espalhando e precisamos de governança e direitos agora mesmo, antes que se torne algo que realmente faça parte da vida cotidiana de todos”, disse ela. 

Os pesquisadores em Cingapura continuam a desenvolver sua tecnologia, esperando primeiro diminuir o número de horas que um sujeito precisará gastar em uma máquina de fMRI. Em seguida, eles dimensionarão o número de assuntos que testarão.

“Achamos que é possível no futuro”, disse Zhou. “E com uma quantidade [maior] de dados disponíveis em um modelo de aprendizado de máquina, obteremos um desempenho ainda melhor.”

CORREÇÃO (28 de março de 2023, 10h46 ET): Uma versão anterior deste artigo digitava incorretamente o sobrenome  de um acadêmico. Ela é Helen Zhou, não Zhao.


Sara Ruberg
 – Sara Ruberg é produtora associada da NBC News.

Jacob Ward – Jacob Ward, correspondente de tecnologia da NBC News, é Berggruen Fellow em 2018-1919 no Centro de Estudos Avançados em Ciências Comportamentais da Universidade de Stanford, onde está escrevendo um livro sobre como a inteligência artificial moldará o comportamento humano. 

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *