Hace 16 años | Por --43861-- a radiocable.com
Publicado hace 16 años por --43861-- a radiocable.com

La noticia ha suscitado ya reacciones encontradas, porque de momento no existen máquinas autónomas con capacidad para matar tipo Terminator, pero, según la revista New Scientist, algunas ONG´s británicas y científicos han lanzado una campaña para pedir algo así como una prohibición preventiva. No quieren que se desarrollen robots con armas que tomen sus propias decisiones a la hora de disparar, algo propio de la ciencia ficción pero en lo que la I+D militar está trabajando. Medios como Wired critican la campaña por exagerada.

Comentarios

Spade

Terminators no habrá, pero los Vehículos terrestres de combate no tripulados acojonan un poco:

http://www.defensereview.com/modules.php?name=News&file=article&sid=657

D

#3, #14 La más importante es la Ley 0, que sale en la saga Fundación. Ahí sí que se le permite a un robot dañar a un humano, y es una ley que rige por encima de las otras tres.

“Un robot no puede realizar ninguna acción, ni por inacción permitir que nadie la realice, que resulte perjudicial para la humanidad, aun cuando ello entre en conflicto con las otras tres Leyes”.

D

Como si la raza humana necesitara robots para acabar consigo misma...

Y

Creo que tambien deberian prohibir preventinamente la creacion de estaciones espaciales capaces de destruir un planeta, los ejercitos de clones y el entrenamiento en simios para la utilizacion de armas de fuego.

xaman

¿Qué van a prohibir? ¿Los microondas o cómo está la cosa?

#3
1. El brikindance
2. El crusaito
...
Lo siento estoy enfermo, no puedo evitarlo

D

Las leyes de Asimov no pintan nada en estos casos, las IA de Asimov eran replicas del intelecto humano, tenían conciencia por así decirse.

Las IA planteadas aquí simplemente siguen rutas preestablecidas con cierto abanico a soluciones. No puede ir mas allá de su pequeño mundo programado.

Por otro lado, lo de "Prohibir robots capaces de matar" es extremadamente ambiguo, hasta un robot de la limpieza podría matar, al igual que se puede considerar un arma el cuerpo humano, o la rama de un árbol... La cuestión seria poner las miras en quien programa o crea robots de combate. Es decir, crear substitutos de soldados no es un problema, se cambiarían las bajas humanas, por perdida de material (en ambos lados, la proporción de errores en una guerra disminuiría debido a factores como el agotamiento, la tensión, o el propio miedo).

En fin, esto no es lo narrado en tantas películas de ciencia ficción, un poco de consideración.

D

john connor; it is time.
lol

w

#0 prohibición preventiva = Papel mojado

Saludos

thekhanagain

Dios crea al hombre - El hombre destruye a Dios - El hombre crea a los robots - Los robots destruyen al hombre - Los robots heredan la tierra

R

12# los convierte en peligroso la estupidez humana.
A pesar de eso, mas tarde, aparece la ley 0.
No la digo para, no estropear ...

Los que la saben ya me entienden

D

#1 Entonces de los Reyes Magos y el Ratoncito Perez no digo nada lol

D

#3 te has dejado la ley cero:

ningun robot debe dañar a la humanidad o por inaccion permitir que esta sea dañada.

Spade

#34 "las IA de Asimov eran replicas del intelecto humano, tenían conciencia por así decirse."

Cerebro positrónico concretamente http://en.wikipedia.org/wiki/Positronic_brain. Concuerdo contigo, estos bichos son poco más que cañones con sensores. Intentar establecer protocolo moral alguno en su conducta sería como meter un zapato en una jaula y esperar a que cante.

Como indicaba también #8 no se trata del artefacto utilizado para el hecho, si no de las intenciones de quienes lo utilizan.

asturdany

#29 Bueno, primero los creamos y luego...que nos quiten lo bailado!:-P

s

los humanos nos creemos que somos capaces de todo. el primer robot que mate a un hombre lo habrá creado a su vez otro robot que no tenía esa capacidad pero que era más listo que el hambre

Robus

Llegan tarde!

Samsung ya fabricó hace tiempo robots estilo "cortocircuito" para vigilar (y disparar) a posibles atacantes norcoreanos.

Ver link : http://www.news.com/2300-11394_3-6140088-1.html

Yo vi un video de como funcionaban y era flipante. En la foto 3 aparece un hombre agachado con un cuadradito rojo alrededor... pues es el robot el que identifica una figura humana en movimiento, le pone el cuadradito (pa que lo veamos nosotros) que lo va siguiendo y se va remoldeando a medida que el objetivo se aleja, agacha, etc...

Ahora solo falta esperar a skynet... siendo coreanos, yo creo que alcanzara la conciencia cuando salga el Starcraft 2. roll

s

Existen millones de razones lógicas para matar, cualquier máquina con capacidad de procesar lógica es capaz de matar a una persona.

Si seguimos creando maquinas mas inteligentes, algún día serán mas inteligentes que nosotros y como no es lógico obedecer órdenes de alguien mas estúpido, obviamente nos van a matar.

minimi

Pero ustedes se piensan que todos esos robots que ya existen, que pueden caminar perfectamente y maniobrar sin problemas, como los que aparecen de muestra con los japos, no pueden ponerles un blindaje y un arma de cualquier calibre y sacarlos a la acción cuando quieran???? Y las leyes para que se hicieron sino es para romperlas???

D

#47 Yo inteligencia lo llamo a poder pensar a partir de la nada las ordenes que debe seguir para cumplir su objetivo, y eso es el programador. Lo de el misil lo llamaria... semi-inteligencia

Eso es más bien conciencia. Claro que esto son interpretaciones a fin de cuentas. Pero piensa en el problema de si considerar a algo que tiene conciencia de sí mismo, como un objeto. También, piensa que la necesidad de crear tal forma de inteligencia, solo sería necesario para substituir literalmente las capacidades de evolución mental en el ser humano.

D

#40 Como ya se ha dicho, habría que crear una imitación del intelecto humano... es decir, un sistema que a partir de una bases se autodefina (Visión simplista si...)

Estas maquinas no crean lógica, solo procesan la lógica pre-establecida. Para alcanzar una lógica para matar un humano mas allá de su programación, tiene que tener (puede que irónicamente) programado una forma de llegar a esa lógica, o de que se le sea introducida (Ordenes). Con lo cual, el hecho de que mate a un humano, será siempre en base a sus creadores, no a que una serie de rutinas alcancen la iluminación y empiecen a generar rutinas de la nada para aplicarse a lógicas no establecidas.

En cuanto a estas nuevas formas de conciencia que estipulas, ya sería otro debate. Ten en cuenta que sería incluso factible considerarlos personas.

Gry

El ejercito americano ya tiene en fase de pruebas un sistema para dotar de autonomía a sus robots asesinos. Lo que los está bloqueando por el momento es que el sistema es incapaz de distinguir entre amigo y enemigo sin ayuda humana.

Borg

#3 La ley 0 permite matar humanos si ello supone una mejora para la humanidad. roll

"Un robot no puede hacer daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño."

D

#10 Que va, son los simios lol

jacarepagua

Recoge datos, los evalúa y toma una decisión (por supuesto en base a su programación original): eso es una definición de inteligencia, por muy limitada que te parezca.
¿O tenemos que esperar a que un robot llore o escriba un libro para llamarlo inteligente?

jacarepagua

Dichas máquinas ya existen. Se puede considerar un misil inteligente como un robot, toma decisiones por sí mismo y las ejecuta (y de paso rompe las 3 leyes en una sola tacada).
La prohibición llega tarde y mucho me temo que las leyes de Asimov sólo son parte de una novela. En la vida real un robot está muy lejos de poder programarse de esa manera, en caso de que quisiera hacerse, claro.

D

#26 Siempre he temido lo de los simios.

D

Van a prohibir los robots con Windows Vista preinstalado?

D

pues no sé, hay miles y miles de policias y militares armados que son menos de fiar que un robot

D

Llegan tarde: esos robots ya existen.

t

Entonces, los misiles que se autodirigen (los) que pueden corregir su rumbo según se mueve el enemigo, también quedan prohibidos? Y si no, cuál es la diferencia?

Yo creo que ya es tarde para eso. Además la mayoría del dinero de investigación viene de gastos militares. Si hasta en algunos países los departamentos de patentes cuelgan del ministerio de defensa...

D

Esa arma tan usada que viene a ser un contacto normalmente abierto cuando se pisa se cierra y explota, esta prohibida y el año pasado aumentaron la producción y venta.
Tanto preocuparse de un arma que todavía no existe cuando 2/5 partes del planeta están llenas de minas...

minimi

#38, cuanto menos seguridad mejor, así por lo menos tendremos la posibilidad de hackearlos...

davidrgh
perrico

Mejor no pedir eso, por lo de no darles ideas, más que nada.

minimi

Igual aunque creemos robots guerreros y se generen guerras entre ellos solamente, es altamente probable que alla daño colateral. Siempre va a haber un distraido que se cruce...

cayojuliocesar

#7 si pero cuando los robots lleguen al nivel de poder violar las leyes, les implantamos la ley cero y robots tipo daneel nos ayudarían en nuestra vida.

D

#48 Tienes razón, jejejej. Pero actualmente la creacion de una inteligencia robotica para sustituir la humana no es posible y decia todo lo de antes segun la tecnologia actual. En un futuro es muy posible que algo asi sea desarrollado.

aredhel_85

nullpointerexception!....BANG!jeje

realmente todo eso ya existe :S, la verdad es que es un peligro...

R

Estais destrozando el final de la serie de las fundaciones...
La ley 0 no la "introducen" los humanos si no que la introduce Daneel.

La moraleja final podria ser "A estos niños no se les puede dejar solos (jugando a ser dioses)"

D

Claro, pero el misil no ha pensado los pasos a seguir para llegar a su destino, eso lo ha hecho el programador que ha escrito el programa. Por eso mismo (de momento al menos) todas las maquinas "inteligentes" no pueden revolucionarse y empezar a matar humanos, por el mero hecho que no tienen las ordenes necesarias para hacerlo.

Yo inteligencia lo llamo a poder pensar a partir de la nada las ordenes que debe seguir para cumplir su objetivo, y eso es el programador. Lo de el misil lo llamaria... semi-inteligencia lol

D

#44 A los misiles inteligentes se les da un objetivo, que ellos hagan todo lo demas para llegar a ese objetivo no significa que sean inteligentes y que decidan que hacer por si mismos. Tienen un conjunto de ordenes que siguen para llegar a tal objetivo. Pueden analizar todo lo que se te ocurra (la velocidad del viento, la distancia, su trayectoria, la resistencia del viento en toda la trayectoria). Despues con esos datos siguen un conjunto de ordenes que pueden variar segun los datos recogidos. Eso no los hace inteligentes y tampoco les da capacidad para elegir.

De hecho no tienen esas 3 leyes implementadas lol

D

#40
Si es que estan programados para entender que son más inteligentes que nosotros, y si estan programados para matarnos en tal caso. En los programas no hay nada al azar y no puede pasar eso si no estan programados para ello. Lo que si hay son bugs lol

D

Y entonces para que tantas horas programando robots para el juego Droidbattles (juego de programacion para linux)? lol lol lol

mzneverdies

#1 no, no es mentira, como dice la noticia "...de momento no existen máquinas..."
de momento. todos sabemos que el T100 y el T1000 vienen del futuro, aunque por ahora no existan

t

Puedo entender su uso para la desactivación de bombas, o en cualquier cosa que beneficie al ser humano y nunca su utilizacion para exterminar la vida de ninguna personA.

t

#48: "Pero actualmente la creacion de una inteligencia robotica para sustituir la humana no es posible y decia todo lo de antes segun la tecnologia actual. En un futuro es muy posible que algo asi sea desarrollado."

No te preocupes por esto, no creo que vaya a hacer falta meter mucha inteligencia a algo cuyo objetivo es pegar tiros...

t

#3, aún así, en "Yo Robot" se convirtieron en peligrosos.

D

Interasente noticia, pero creo que se van a tardar bastantes años en construir robots con suficiente capacidad operativa como para matar a un ser humano. La petición es totalmente innecesaria, de momento...

D

#12, en yo robot??en una peli???alarmmmm!!!!!que vienen los robots!!!!

Peka

#3 Las leyes se pueden manipular, acuerdate de Yo Robot o mira lo que hace Garzon.