ROBOMANIA EM DEBATE...
ROBÔS ASSASSINOS (HORA DE PARAR!)
English:
http://motherboard.vice.com/en_uk/read/none-of-the-un-experts-debating-killer-robots-are-women
http://www.bbc.com/news/business-27332130
Video:
https://www.youtube.com/watch?v=yliThCy3RxY
Campaign:
http://www.stopkillerrobots.org/
https://www.facebook.com/stopkillerrobots
QINETIQ / MAARS –
https://www.qinetiq-na.com/products/unmanned-systems/maars/
https://www.facebook.com/qinetiqna
Em meados de maio, na sede das Nações Unidas em Genebra, várias nações de todo o mundo e as principais mentes da robótica se reuniram para tentar descobrir o que devemos fazer a respeito do fantasma dos “robôs assassinosâ€.
Em linguagem diplomática, esses robôs são chamados “lethal autonomous weapons systems†(sistemas de armas autônomas e letais) ou LAWS – máquinas inteligentes que podem decidir, por conta própria, tirar a vida de uma pessoa sem qualquer intervenção humana. Com os exércitos dos EUA, China, Rússia e Israel cada vez mais próximos de desenvolver essas máquinas mortais, a ONU realizou sua primeira convenção para debater se deve proibir a tecnologia logo de cara antes que seja tarde demais.
As desvantagens de criar máquinas que podem nos matar já é uma tecla batida; a ficção cientÃfica já fez um belo trabalho ao retratar esse futuro distópico em particular. Assim como ativistas da campanha Stop Killer Robots, a Human Rights Watch e o Comitê Internacional para Controle de Armas Robóticas estão em Genebra fazendo lobby por uma proibição preventiva.
Mas o outro lado do debate é mais provocativo, e enquanto a comunidade global balança à beira de um futuro de guerra totalmente robotizado, vale a pena considerar que os robôs letais podem ser uma coisa boa.
Ronald Arkin, eticista robótico do Instituto de Tecnologia da Geórgia, vai argumentar esse ponto com a ONU esta semana. Ele acredita que os LAWS podem salvar vidas civis.
Por exemplo, robôs assassinos não se atrapalham se preocupando em não morrer, e terão todo tipo de capacidade de super-herói com que podemos programar as máquinas hoje. Mas o ponto mais importante é que robôs letais podem ser mais “humanos†do que os humanos em combate, principalmente por causa de uma caracterÃstica distintamente humana que os combatentes mecânicos não têm: emoções.
Sem julgamento obscurecido por medo, raiva, vingança e os horrores da guerra que brincam com a psique humana, uma máquina inteligente pode evitar erros provocados por emoções e limitar as atrocidades que os humanos vêm cometendo nas zonas de guerra por toda a história, argumenta Arkin. “Acredito que os seres humanos são o ponto mais fraco da cadeia de matança, ou seja, nossa biologia trabalha contra nósâ€, escreveu Arkin num trabalho chamado “Lethal Autonomous Systems and the Plight of the Non-combatant†(“Sistemas Autônomos Letais e a Situação dos Não Combatentesâ€).
Mas Arkin não é um belicista. O trabalho, que define boa parte do argumento a ser discutido por ele na ONU esta semana, é um aviso de que a base de todo o argumento opera sobre a premissa de que a guerra é, infelizmente, inevitável, e carrega um tom que parece dizer: “eu sei que existe a possibilidade de isso ser um desastre, mas escute o que tenho a dizerâ€.
“Os robôs já são mais rápidos, mais fortes e, em certos casos [...] mais inteligentes que os humanosâ€, ele escreveu, “então, seria difÃcil acreditar que eles poderão nos tratar mais humanamente no campo de batalha do que a forma como em geral tratamos uns aos outros, dada a existência persistente de comportamentos atrozes por um subgrupo significativo de nossos combatentes humanos?â€
Em outras palavras, já que vamos lutar uns com os outros de qualquer jeito, talvez a tecnologia, se desenvolvida cuidadosamente, possa nos ajudar a matar somente o inimigo, e não gente inocente. Outro relatório de coautoria de Arkin sugere que os futuros robôs letais sejam comandados por uma série de regras: tratados internacionais e um tipo de software ético para garantir a obediência às leis humanas.
Claro, mesmo com essas garantias, muitas pessoas discordam. O buraco significativo no argumento de Arkin é o seguinte: como podemos garantir que essas máquinas de matar autônomas vão, de fato, fazer aquilo que mandarmos? Como saber se elas não vão alcançar um ponto de consciência e inteligência no qual decidirão se proteger mesmo às custas de vidas humanas? Por que acreditar que elas obedecerão às nossas leis?
Ou ainda, como podemos garantir que os ataques desses sistemas ocorrerão sem erros? E se eles sofrerem uma falha ou forem hackeados? Pela última contagem, ataques de drones, que também foram lançados como uma maneira de minimizar baixas inocentes, já mataram quase mil civis inocentes.
“Acho bem provável que esses sistemas se comportem de maneira imprevisÃvel, especialmente por se tornarem cada vez mais complexos e serem usados em ambientes cada vez mais complicadosâ€, me escreveu Peter Asaro, cofundador do Comitê Internacional para o Controle de Armas Robôs, num e-mail de Genebra. “E é também cada vez mais possÃvel que eles sofram falhas, quebrem ou apresentem mau funcionamento de maneiras menos previsÃveis devido à sua complexidade.â€
Há uma série de outras preocupações, como as implicações éticas da remoção de humanos do processo de morte, um movimento que torna fácil matar um grande número de pessoas sem pensar duas vezes. A reunião da ONU é parte da Convenção sobre Armas Convencionais – um grupo responsável por proibir lasers que podem cegar, minas terrestres e outras armas escrotas consideradas desumanas.
Não importa o que a ONU decidir, o fato é que robôs semiautônomos letais já estão lutando lado a lado com humanos, e que os militares estão trabalhando arduamente para desenvolver a autonomia completa. Protótipos para a próxima geração de veÃculos aéreos não tripulados, como o X-47B e o Taranis, são desenvolvidos para jogar bombas e podem fazer isso sem supervisão humana, controlando drones Predator e Reaper.
Seja como for, máquinas autônomas letais podem ser o futuro inevitável.
By Meghan Neal .Tradução: Marina Schnoor. Fonte: http://www.vice.com/pt_br/.
Mais detalhes:
http://motherboard.vice.com/en_uk/read/none-of-the-un-experts-debating-killer-robots-are-women
http://www.bbc.com/news/business-27332130
VÃdeo:
https://www.youtube.com/watch?v=yliThCy3RxY
Campanha:
http://www.stopkillerrobots.org/
https://www.facebook.com/stopkillerrobots
QINETIQ / MAARS –
https://www.qinetiq-na.com/products/unmanned-systems/maars/
https://www.facebook.com/qinetiqna
TABLET…
Clique e veja que interessante:
http://www.youtube.com/embed/Dg4Hww479K0
Como o "cara" faz isso?
Fonte: Jane Rivelli (Colaboração: A. M. Borges)
Simon Pierro:
http://www.simonpierro.com/
http://www.facebook.com/pages/Simon-Pierro/106469032741321
https://www.facebook.com/iosmagic
HARPA DE COPOS
Sensacional:
http://www.youtube.com/embed/XKRj-T4l-e8
Fone: Carlos Kley (Colaboração: A. M. Borges!
Robert Tiso:
http://www.roberttiso.com/index.php?option=com_content&view=category&id=14
https://www.facebook.com/video/video.php?v=437250314124
BiSGen –
https://www.facebook.com/BiSGen
ERA DIGITAL 3
Nós os "Silver Surfers" (pessoas mais velhas na Internet), às vezes, temos problemas com nossos computadores.
Ontem tive um e chamei o Joãozinho, um garoto de onze anos de idade que mora aqui mesmo na porta ao lado e cujo quarto se parece com o Mission Control e pedi-lhe para vir cá dar uma olhadela..
Ele clicou num par de teclas e logo resolveu o problema.
Quando ele estava a ir-se embora, chamei-o e perguntei-lhe: "Então, qual era o problema? "
Ele respondeu: 'Foi um erro de ID dez TA ".
Eu não queria parecer estúpido, mas ainda assim perguntei:
"Um erro de ID dez TA"? O que é isso? Diz-me para o caso de vir a acontecer o mesmo.
Ele sorriu sarcástico....
- Você nunca ouviu falar de um erro de ID dez TA?
- Não, respondi.
- Escreva lá isso, disse ele, eu acho que você vai descobrir.
Então, eu escrevi: ID I0 TA.
E eu que gostava tanto do Joãozinho..
(Colaboração: Leo)
Não deixem de enviar suas mensagens através do “Fale Conosco†do site.
http://www.faculdademental.com.br/fale.php