• Principal
  • Outro
  • AI está cada vez mais perto de Data from Star Trek: TNG agora que sabe se você pode ou não confiar nele

AI está cada vez mais perto de Data from Star Trek: TNG agora que sabe se você pode ou não confiar nele

Que Filme Ver?
 
>

Pode não ser tão autoconsciente quanto Data from Star Trek: TNG (ainda), especialmente porque aquele andróide poderia cuidar melhor de um gato do que alguns humanos, mas a IA agora chegou ao ponto de perceber quando não é confiável.



Mad Max Fury Road Medios de comunicación de sentido común

O que agora é chamado regressão evidencial profunda aumentou a autoconsciência da IA. Ele saberá quando tem uma chance maior de cometer um erro na previsão, com base na avaliação da confiabilidade dos dados que está examinando. É mais provável que as previsões futuras funcionem se forem influenciadas por dados mais completos e precisos. O oposto significa que provavelmente as coisas darão errado - e a IA pode sentir isso. Quando ele estima sua certeza sobre algo, essa certeza aumentará e diminuirá dependendo dos dados que é alimentado. O AI pode então determinar o risco ou incerteza com precisão de 99%.

Parece que até Picard ficaria impressionado - mas espere. Há apenas uma desvantagem para robôs autoconscientes: 99% não é certeza total, não importa o quão perto esteja. Estar desligado por apenas 1% pode significar um desastre em cenários de risco de vida, desde dirigir um carro autônomo até realizar uma cirurgia. Apavorante.







Embora [a regressão evidencial profunda] apresente várias vantagens sobre as abordagens existentes, suas principais limitações estão no ajuste do coeficiente de regularização e na remoção eficaz de evidências não enganosas ao calibrar a incerteza, disse MIT Ph.D. estudante Alexander Amini , que liderou um estudo que apresentará na conferência NeurIPS do mês que vem.

mi ex sueña conmigo

O que Amini e sua equipe conseguiram fazer ainda é notável. Antes disso, usar IA para estimar a incerteza não era apenas caro, mas muito lento para decisões que precisavam ser feitas em frações de segundo. As redes neurais podem ser tão imensas que podem levar uma eternidade para calcular uma resposta, e a espera para saber o nível de confiança seria muito longa para se preocupar em colocar um esforço nisso. Seria inútil usar algo assim em um self -drive carro que precisa saber qual curva fazer imediatamente. O processo foi acelerado por regressão evidencial profunda. Essa rede neural só precisa ser executada uma vez para descobrir o nível de incerteza.

Ao adivinhar a incerteza em um modelo que a IA já aprendeu, ela pode nos dizer aproximadamente quão ampla é a margem de erro. A AI usa evidências para fazer backup de sua estimativa. Essa evidência inclui qualquer incerteza que esteja oculta nos dados que acabamos de analisar pela rede neural ou sua autoconsciência de quão confiante está em sua própria decisão. Amini e sua equipe testaram o método de regressão de evidências profundas treinando a IA para estimar a profundidade de cada pixel em uma imagem. A percepção de profundidade pode significar vida ou morte em uma cirurgia que precisa remover um tumor que pode estar localizado bem no fundo do corpo e difícil de ver de outra forma.

A IA foi bastante precisa, mas bagunçou uma vez que foi alimentado com imagens que eram mais difíceis de lembrar. Pelo menos havia uma coisa sobre a qual era consistente: ao se deparar com imagens que lhe davam dificuldade, informaria sem falta à equipe sobre sua incerteza. Sua margem de erro determinada pode pelo menos ensinar aos pesquisadores como melhorar esse modelo. Sua capacidade de reconhecer imagens que foram feitas no Photoshop também abre a possibilidade de reconhecimento de deepfakes. Os humanos só precisam estar cientes de que este cérebro de robô ainda é falível, e não podemos confiar nele mais do que ele pode confiar em si mesmo.

cómo terminan los medios de sentido común

Acreditamos que uma investigação mais aprofundada é necessária para descobrir maneiras alternativas de remover evidências não enganosas, Amini disse .

Ou seja, a IA que pode pensar usando regressão evidencial profunda é bastante confiável, desde que o resultado de uma resposta errada não seja letal.