ROBOMANIA EM DEBATE...
29/05/2014 -
EU DIGITAL
ROBĂS ASSASSINOS (HORA DE PARAR!)
English:
http://motherboard.vice.com/en_uk/read/none-of-the-un-experts-debating-killer-robots-are-women
http://www.bbc.com/news/business-27332130
Video:
https://www.youtube.com/watch?v=yliThCy3RxY
Campaign:
http://www.stopkillerrobots.org/
https://www.facebook.com/stopkillerrobots
QINETIQ / MAARS â
https://www.qinetiq-na.com/products/unmanned-systems/maars/
https://www.facebook.com/qinetiqna
Em meados de maio, na sede das NaçÔes Unidas em Genebra, vĂĄrias naçÔes de todo o mundo e as principais mentes da robĂłtica se reuniram para tentar descobrir o que devemos fazer a respeito do fantasma dos ârobĂŽs assassinosâ.
Em linguagem diplomĂĄtica, esses robĂŽs sĂŁo chamados âlethal autonomous weapons systemsâ (sistemas de armas autĂŽnomas e letais) ou LAWS â mĂĄquinas inteligentes que podem decidir, por conta prĂłpria, tirar a vida de uma pessoa sem qualquer intervenção humana. Com os exĂ©rcitos dos EUA, China, RĂșssia e Israel cada vez mais prĂłximos de desenvolver essas mĂĄquinas mortais, a ONU realizou sua primeira convenção para debater se deve proibir a tecnologia logo de cara antes que seja tarde demais.
As desvantagens de criar mĂĄquinas que podem nos matar jĂĄ Ă© uma tecla batida; a ficção cientĂfica jĂĄ fez um belo trabalho ao retratar esse futuro distĂłpico em particular. Assim como ativistas da campanha Stop Killer Robots, a Human Rights Watch e o ComitĂȘ Internacional para Controle de Armas RobĂłticas estĂŁo em Genebra fazendo lobby por uma proibição preventiva.
Mas o outro lado do debate é mais provocativo, e enquanto a comunidade global balança à beira de um futuro de guerra totalmente robotizado, vale a pena considerar que os robÎs letais podem ser uma coisa boa.
Ronald Arkin, eticista robĂłtico do Instituto de Tecnologia da GeĂłrgia, vai argumentar esse ponto com a ONU esta semana. Ele acredita que os LAWS podem salvar vidas civis.
Por exemplo, robĂŽs assassinos nĂŁo se atrapalham se preocupando em nĂŁo morrer, e terĂŁo todo tipo de capacidade de super-herĂłi com que podemos programar as mĂĄquinas hoje. Mas o ponto mais importante Ă© que robĂŽs letais podem ser mais âhumanosâ do que os humanos em combate, principalmente por causa de uma caracterĂstica distintamente humana que os combatentes mecĂąnicos nĂŁo tĂȘm: emoçÔes.
Sem julgamento obscurecido por medo, raiva, vingança e os horrores da guerra que brincam com a psique humana, uma mĂĄquina inteligente pode evitar erros provocados por emoçÔes e limitar as atrocidades que os humanos vĂȘm cometendo nas zonas de guerra por toda a histĂłria, argumenta Arkin. âAcredito que os seres humanos sĂŁo o ponto mais fraco da cadeia de matança, ou seja, nossa biologia trabalha contra nĂłsâ, escreveu Arkin num trabalho chamado âLethal Autonomous Systems and the Plight of the Non-combatantâ (âSistemas AutĂŽnomos Letais e a Situação dos NĂŁo Combatentesâ).
Mas Arkin nĂŁo Ă© um belicista. O trabalho, que define boa parte do argumento a ser discutido por ele na ONU esta semana, Ă© um aviso de que a base de todo o argumento opera sobre a premissa de que a guerra Ă©, infelizmente, inevitĂĄvel, e carrega um tom que parece dizer: âeu sei que existe a possibilidade de isso ser um desastre, mas escute o que tenho a dizerâ.
âOs robĂŽs jĂĄ sĂŁo mais rĂĄpidos, mais fortes e, em certos casos [...] mais inteligentes que os humanosâ, ele escreveu, âentĂŁo, seria difĂcil acreditar que eles poderĂŁo nos tratar mais humanamente no campo de batalha do que a forma como em geral tratamos uns aos outros, dada a existĂȘncia persistente de comportamentos atrozes por um subgrupo significativo de nossos combatentes humanos?â
Em outras palavras, jĂĄ que vamos lutar uns com os outros de qualquer jeito, talvez a tecnologia, se desenvolvida cuidadosamente, possa nos ajudar a matar somente o inimigo, e nĂŁo gente inocente. Outro relatĂłrio de coautoria de Arkin sugere que os futuros robĂŽs letais sejam comandados por uma sĂ©rie de regras: tratados internacionais e um tipo de software Ă©tico para garantir a obediĂȘncia Ă s leis humanas.
Claro, mesmo com essas garantias, muitas pessoas discordam. O buraco significativo no argumento de Arkin Ă© o seguinte: como podemos garantir que essas mĂĄquinas de matar autĂŽnomas vĂŁo, de fato, fazer aquilo que mandarmos? Como saber se elas nĂŁo vĂŁo alcançar um ponto de consciĂȘncia e inteligĂȘncia no qual decidirĂŁo se proteger mesmo Ă s custas de vidas humanas? Por que acreditar que elas obedecerĂŁo Ă s nossas leis?
Ou ainda, como podemos garantir que os ataques desses sistemas ocorrerĂŁo sem erros? E se eles sofrerem uma falha ou forem hackeados? Pela Ășltima contagem, ataques de drones, que tambĂ©m foram lançados como uma maneira de minimizar baixas inocentes, jĂĄ mataram quase mil civis inocentes.
âAcho bem provĂĄvel que esses sistemas se comportem de maneira imprevisĂvel, especialmente por se tornarem cada vez mais complexos e serem usados em ambientes cada vez mais complicadosâ, me escreveu Peter Asaro, cofundador do ComitĂȘ Internacional para o Controle de Armas RobĂŽs, num e-mail de Genebra. âE Ă© tambĂ©m cada vez mais possĂvel que eles sofram falhas, quebrem ou apresentem mau funcionamento de maneiras menos previsĂveis devido Ă sua complexidade.â
HĂĄ uma sĂ©rie de outras preocupaçÔes, como as implicaçÔes Ă©ticas da remoção de humanos do processo de morte, um movimento que torna fĂĄcil matar um grande nĂșmero de pessoas sem pensar duas vezes. A reuniĂŁo da ONU Ă© parte da Convenção sobre Armas Convencionais â um grupo responsĂĄvel por proibir lasers que podem cegar, minas terrestres e outras armas escrotas consideradas desumanas.
NĂŁo importa o que a ONU decidir, o fato Ă© que robĂŽs semiautĂŽnomos letais jĂĄ estĂŁo lutando lado a lado com humanos, e que os militares estĂŁo trabalhando arduamente para desenvolver a autonomia completa. ProtĂłtipos para a prĂłxima geração de veĂculos aĂ©reos nĂŁo tripulados, como o X-47B e o Taranis, sĂŁo desenvolvidos para jogar bombas e podem fazer isso sem supervisĂŁo humana, controlando drones Predator e Reaper.
Seja como for, mĂĄquinas autĂŽnomas letais podem ser o futuro inevitĂĄvel.
By Meghan Neal .Tradução: Marina Schnoor. Fonte: http://www.vice.com/pt_br/.
Mais detalhes:
http://motherboard.vice.com/en_uk/read/none-of-the-un-experts-debating-killer-robots-are-women
http://www.bbc.com/news/business-27332130
VĂdeo:
https://www.youtube.com/watch?v=yliThCy3RxY
Campanha:
http://www.stopkillerrobots.org/
https://www.facebook.com/stopkillerrobots
QINETIQ / MAARS â
https://www.qinetiq-na.com/products/unmanned-systems/maars/
https://www.facebook.com/qinetiqna
TABLETâŠ
Clique e veja que interessante:
http://www.youtube.com/embed/Dg4Hww479K0
Como o "cara" faz isso?
Fonte: Jane Rivelli (Colaboração: A. M. Borges)
Simon Pierro:
http://www.simonpierro.com/
http://www.facebook.com/pages/Simon-Pierro/106469032741321
https://www.facebook.com/iosmagic
HARPA DE COPOS
Sensacional:
http://www.youtube.com/embed/XKRj-T4l-e8
Fone: Carlos Kley (Colaboração: A. M. Borges!
Robert Tiso:
http://www.roberttiso.com/index.php?option=com_content&view=category&id=14
https://www.facebook.com/video/video.php?v=437250314124
BiSGen â
https://www.facebook.com/BiSGen
ERA DIGITAL 3
NĂłs os "Silver Surfers" (pessoas mais velhas na Internet), Ă s vezes, temos problemas com nossos computadores.
Ontem tive um e chamei o JoĂŁozinho, um garoto de onze anos de idade que mora aqui mesmo na porta ao lado e cujo quarto se parece com o Mission Control e pedi-lhe para vir cĂĄ dar uma olhadela..
Ele clicou num par de teclas e logo resolveu o problema.
Quando ele estava a ir-se embora, chamei-o e perguntei-lhe: "EntĂŁo, qual era o problema? "
Ele respondeu: 'Foi um erro de ID dez TA ".
Eu nĂŁo queria parecer estĂșpido, mas ainda assim perguntei:
"Um erro de ID dez TA"? O que Ă© isso? Diz-me para o caso de vir a acontecer o mesmo.
Ele sorriu sarcĂĄstico....
- VocĂȘ nunca ouviu falar de um erro de ID dez TA?
- NĂŁo, respondi.
- Escreva lĂĄ isso, disse ele, eu acho que vocĂȘ vai descobrir.
EntĂŁo, eu escrevi: ID I0 TA.
E eu que gostava tanto do JoĂŁozinho..
(Colaboração: Leo)
NĂŁo deixem de enviar suas mensagens atravĂ©s do âFale Conoscoâ do site.
http://www.faculdademental.com.br/fale.php