Exército dos EUA está desenvolvendo drones que decidirão quem matar - SAN ONI CHANNEL

Breaking

SAN ONI CHANNEL

Encontre o que você procura no melhor blog da atualidade.

Post Top Ad

Post Top Ad

Translate

quarta-feira, 18 de abril de 2018

Exército dos EUA está desenvolvendo drones que decidirão quem matar

Exército dos EUA está desenvolvendo drones que decidirão quem matar


EVENTOS MUNDIAIS E A BÍBLIA
Notas da WEB: Isso é completamente errado em muitos níveis. As máquinas não devem ter a capacidade de tomar uma decisão de vida ou morte. Eles são máquinas e podem ser manipulados para fazer qualquer coisa e matar qualquer um naquele ponto, com pouquíssimas pessoas envolvidas no processo.
Fonte: The Conversation - O Exército dos EUA anunciou recentemente que está desenvolvendo os primeiros drones que podem identificar e segmentar veículos e pessoas usando inteligência artificial (IA). Este é um grande passo em frente. Enquanto os drones militares atuais ainda são controlados por pessoas, essa nova tecnologia decidirá quem matar com quase nenhum envolvimento humano.
Uma vez concluídos, esses drones representarão a militarização final da IA ​​e desencadearão vastas implicações legais e éticas para a sociedade em geral. Há uma chance de que a guerra passe do combate ao extermínio, perdendo qualquer semelhança de humanidade no processo. Ao mesmo tempo, poderia ampliar a esfera de guerra para que as empresas, engenheiros e cientistas que constroem AI se tornassem alvos militares válidos.
Os drones militares letais existentes, como o MQ-9 Reaper, são cuidadosamente controlados e pilotados via satélite. Se um piloto derruba uma bomba ou dispara um míssil, um operador de sensor humano guia-a ativamente para o alvo escolhido usando um laser.
Em última análise, a tripulação tem a responsabilidade final ética, legal e operacional para matar alvos humanos designados. Como afirma um operador do Reaper: "Tenho muito a mentalidade de que permitiria a um insurgente, por mais importante que fosse, um alvo, fugir do que dar um tiro arriscado que poderia matar civis".
Mesmo com esses assassinatos, as emoções humanas, julgamentos e ética sempre permaneceram no centro da guerra. A existência de trauma mental e transtorno de estresse pós-traumático (TEPT) entre os operadores de drones mostra o impacto psicológico da morte remota.
E isso na verdade aponta para um possível argumento militar e ético de Ronald Arkin, em apoio a drones de morte autônomos. Talvez, se esses drones derrubarem as bombas, problemas psicológicos entre os membros da tripulação possam ser evitados. A fraqueza desse argumento é que você não precisa ser responsável por matar para ser traumatizado por ele. Especialistas em inteligência e outras equipes militares analisam regularmente imagens gráficas de ataques com drones. Pesquisas mostram que é possível sofrer danos psicológicos observando frequentemente imagens de violência extrema.
Quando entrevistei mais de 100 membros da tripulação do Reaper para um próximo livro, todas as pessoas com quem conversei que conduziram ataques de drones letais acreditavam que, em última análise, deveria ser um humano que puxasse o gatilho final. Retire o humano e você também tira a humanidade da decisão de matar.
Conseqüências graves 
A perspectiva de drones totalmente autônomos alteraria radicalmente os complexos processos e decisões por trás dos assassinatos militares. Mas a responsabilidade legal e ética não desaparece de alguma forma se você remover a supervisão humana. Em vez disso, a responsabilidade recairá cada vez mais sobre outras pessoas, incluindo cientistas de inteligência artificial.
As implicações legais desses desenvolvimentos já estão se tornando evidentes. Sob o atual direito internacional humanitário, as instalações de “duplo uso” - aquelas que desenvolvem produtos para aplicações civis e militares - podem ser atacadas nas circunstâncias certas. Por exemplo, na Guerra do Kosovo, em 1999, a refinaria de petróleo de Pancevo foi atacada porque podia abastecer os tanques iugoslavos e abastecer os carros civis.
Com um sistema de armas de drones autônomos, certas linhas de código de computador quase certamente seriam classificadas como de uso duplo. Empresas como o Google, seus funcionários ou seus sistemas podem se tornar responsáveis ​​por ataques de um estado inimigo. Por exemplo, se o software de reconhecimento de imagem Project Maven do Google for incorporado a um drone autônomo militar americano, o Google poderá se ver envolvido no negócio de “matar” de drones, assim como qualquer outro contribuinte civil para esses sistemas autônomos letais.
Eticamente, ainda há problemas mais sombrios. O ponto principal dos algoritmos de autoaprendizagem - programas que aprendem independentemente de qualquer dado que possam coletar - que a tecnologia usa é que eles se tornam melhores em qualquer tarefa que lhes seja dada. Se um drone autônomo letal é melhorar em seu trabalho por meio do auto-aprendizado, alguém precisará decidir sobre um estágio aceitável de desenvolvimento - quanto ele ainda precisa aprender - no qual ele pode ser implementado. No aprendizado de máquina militarizado, isso significa que líderes políticos, militares e do setor terão que especificar quantas mortes de civis serão consideradas aceitáveis, conforme a tecnologia for aperfeiçoada.
Experiências recentes de IA autônoma na sociedade devem servir como um aviso. Os experimentos fatais de Uber e Tesla com carros autônomos sugerem que é praticamente garantido que haverá mortes não planejadas de drones autônomos enquanto os bugs dos computadores são eliminados.
Se forem deixadas máquinas para decidir quem morre, especialmente em grande escala, então o que estamos testemunhando é o extermínio. Qualquer governo ou militar que desencadeou essas forças violaria quaisquer valores que alegasse estar defendendo. Em comparação, um piloto de drone lutando com uma decisão de “matar ou não matar” se torna o último vestígio da humanidade nos negócios muitas vezes desumanos da guerra.

Exército dos EUA está desenvolvendo drones que decidirão quem matar
Exército dos EUA está desenvolvendo drones que decidirão quem matar

Exército dos EUA está desenvolvendo drones que decidirão quem matar


Nenhum comentário:

Postar um comentário

Marcadores

BLOGUEIROS (6) CuriusPodcast (11) debates (131) Energias Alternativas (2) Estudos (34) Fashion (102) Food (112) historias (6) Imagens (5) Lua Cheia (1) Music (103) Newns (376) news (372) Patrocinios (6) PerguntasRespostas (89) Poliamorismo (1) Prêmiação (2) Sanonichan (237) SAÚDE (15) Sports (100) Technology (116) Video (117)

Post Top Ad