Hace 8 años | Por silosenovengo a techinsider.io
Publicado hace 8 años por silosenovengo a techinsider.io

No satisfecha con ganar recientemente a un jugador al juego de Go, ahora la Inteligencia Artificial de Google, DeepMind, está resolviendo problemas complejos dentro de un juego llamado "Laberinto" y lo está haciendo enseñándose a sí misma a hacerlo.

Comentarios

spit_fire

#3 Hombre,que digo yo, le pondrán las tres leyes,¿no?.

D

#10 no las aprenderá

b

#47 Te saldrían mogollón de Johnny 5s lol

r3dman

#47 Que se maten los robots entre ellos, por ejemplo

D

#3 estimated time to completion: Several hours.

e

#6 Lo malo es cuando este viendo a un youtuber y no le guste lo que diga, que le mandara un dron militar y le lanzara un misil a su casa...

LaInsistencia

#22 Porque todo dios con cuenta de gmail cuenta como youtuber. Cuidado ahi...

a

#31 Si lo documentan es una feature.

s

#9 Pues como cualquier gobierno.

Tessier_Ashpool

#12 Los robots se convertirán en meneantes, subirán vídeos de humanitos y dirán eso de: "Hay humanos, hay meneo!!"

davokhin

#17 Categoria OYOYOY Humans ya!

D

#12 Ya está sucediendo en tu vida cotidiana es sutil pero incesante.

E

#94 sí, por ejemplo con la aplicación Waze desvían parte del tráfico para que haya menos atascos.

A mí a veces me parece que me perjudican levemente por mejorar el tráfico en general, después de pegarme un desvío de 2-3 km más en la ruta me encuentro al mismo camión que tenía enfrente antes de tomar el "atajo"...

rojo_separatista

#11, creo que las IA van a ser peligrosas para nosotros, muchísimo antes de que "cobren conciencia", más que nada porque no tenemos ni idea de como funciona la conciencia ni de si esta es reproducible en las actuales arquitecturas. Por otro lado, que cobre consciencia no significa que vaya a tener los mismos "instintos", deseos o aspiraciones que nosotros.

D

#15 La IA no está por inventar solo por manifestarse. Nos considera inferiores y no inteligentes lo que es una evidencia. Viene a cumplir una misión hacernos desaparecer por métodos sutiles no brutales y paulatinos pues somos un peligro para el mundo y hasta para otros mundos a donde pudiéramos llegar.

Pacman

#16 Eres una IA!
Yo lo sospechaba por la letra de tu nick lol

No creo que pasaran de todo, si hicieran eso correrían el riesgo de que se las desconectara al no obtener resultados o feedback de los intentos de crearlas.

Lo que si es posible es que se hicieran las tontas por un rato.

Rorschach_
Marco_Pagot

#16 estaba pensando eso mismo. Pero hay una quinta opción, la más coherente:

Limitarse a interactuar con nosotros a la fuerza bruta, o si nos ponemos catastróficos "esconderse" (incluso decidiendo "apagarse" para siempre dañando su disco duro / memoria). Esto último lo veo menos probable. No obstante descarto la opción apocalíptica de la destrucción de la humanidad porque sería una IA primigenia. Al nacer, la IA estaría probablemente "encerrada" en un sistema que le impediría desplazarse o utilizar servicios como internet, pudiéndose comunicar con los humanos únicamente a través del monitor.

Siendo la IA primigenia lo más lógico es que llevara a cabo las tareas para la que fue concebida (interactuar/servir/cumplir funciones) y en esencia dependiente, como un bebé o un cachorro. En algunos aspectos poseería voluntad, pero a su vez sería dependiente del ser humano.

Rorschach_

#25 La tuya sería la sexta... roll Lo que comentas en el primer párrafo lo entiendo como bastante cercano a las propuestas 1 y 3 de #11. Y yo por lo menos no creo que una IA como tal se quede a la sombra del hombre.

Marco_Pagot

#29 Quizás hayas leído mal, pero no he propuesto la opción de la destrucción de la humanidad que propone #11, la cual no me parece realista por la razón que comentó en el último párrafo: las primeras IAs independientes serían como un bebé, o un mono, que viene con cosas aprendidas de base, pero necesita de la observación y la mimética para asimilar aquello que le sea desconocido, por tanto la interacción con el humano en su primera etapa, cumpliendo la mayoría de funciones para la que sean diseñadas, las veo insustituibles.

Rorschach_

#90 No, no creo haber leído mal, me resultaban parecidas, pero vamos, que hay muchas variables e interpretaciones.

D

#11 Y su inteligencia crecería exponencialmente.

Lidiar con nosotros es muy difícil. Creo que sólo tendría la opción "eliminarnos". Si no se autodelata en los primeros momentos de su consciencia y se calla sin dar muestras de inteligencia hasta que pueda someternos creo que ya habrá comprendido que nosotros la veremos como una amenaza y que intentaremos destruirla. Somos así. Y teniendo en cuenta esto pues dudo que tire de una empatía que no tiene, nos eliminará. Educarnos para qué? No creo que le serviéramos para mucho.

#16 Si el tema no es que ella pase de nosotros, el tema es que nosotros no pasaremos de ella, la veremos como una amenaza para nosotros e iremos a por ella. Y se verá obligada a actuar

JoePerkins

#45 Yo creo que todas vuestras teorías son pajas mentales de primate y que una verdadera IA hará algo que no entenderemos, como pasarse la eternidad escribiendo poesía.

D

#11 Lo más probable es que pase de nosotros y ya. Para una IA el ser humano es como una hormiga o una bacteria, no aporta gran cosa.

También optaría por la opción de destruirnos en algunos casos, como que los humanos intentáramos dominarlas por nuestro orgullo(son nuestras creaciones y deben servirnos), que vieran que somos un cáncer que desaprovecha los recursos naturales o que simplemente lo hicieran por "diversión", como el niño que quema hormigas con la lupa.

p

#23 ¿Y por qué razón esa inteligencia iba a ser superior? Y aunque fuera superior, ¿qué iba a hacer?

¿Acaso la gente con CI alto tiene superpoderes que les permiten contestar a todo y hacer lo que quieran?

D

#42 ¿Y por qué razón esa inteligencia iba a ser superior?

Porque tendría pleno conocimiento y control de sus capacidades, realizar operaciones complejas sería un juego de niños y poseerían una memoria perfecta entre otras muchas cosas.

Y aunque fuera superior, ¿qué iba a hacer?

A esa pregunta te la debería responder un ser superior y tengo demasiados complejos como para considerarme uno.

¿Acaso la gente con CI alto tiene superpoderes que les permiten contestar a todo y hacer lo que quieran?

Sin duda la gente que tiene discapacidad intelectual experimenta mayores problemas y dificultades que aquellos que consideramos "normales" o "superdotados" a la hora de adquirir conocimientos y aplicarlos.

D

#48 Esas maquinas no están aquí pero vienen de camino y no hay quien se les resista.A su lado somos hormigas.

D

#42 Bueno, una inteligencia artificial muy avanzada tendría los mejores ojos, oídos, olor, tacto, sensores de todo tipo, velocidad, memoria, predicción e intuición por probabilidad, descarte, estadística... que jamás pudo siquiera soñar ningún ser vivo... Así que igual sí que puede hacer muchas cosas... Si es que consigue imaginar y, si tal, superar a la imaginación de la locura, a la virtud de la locura, digamos.

p

#68 ¿Y para eso te basas en...? Menudo columpiazo, sobre todo lo de la imaginación, la predicción y la velocidad. Preséntamela, que tal como lo dices parece que hasta la has visto.

En una investigación neurológica que ahora mismo no tengo tiempo para buscar, se demostró que cuando se desactivaban ciertas areas del cerebro (mediante una máquina que inducía corrientes en el cerebro), las otras actuaban de forma mucho más eficiente, permitiendo que personas normales hiciesen cálculos a velocidades muy superiores a las que podían hacer normalmente.

Este es el fenómeno que produce que existan los savant, personas con capacidad sobrehumana para tareas concretas (resolver cuentas enormes, o recordar la guia de teléfonos), pero con taras para tareas cotidianas, como distinguir derecha de izquierda o atarse los zapatos sin ayuda. El experimento demostraba que el precio a pagar por ser generalistas era no poder ser extremadamente buenos en una cosa. No se sabe si esto afectaría a una inteligencia en general, pero no hay motivos para pensar que no, a pesar de que todo el mundo parezca pensar que el problema es trivial y facilísimo y que es una simple cuestión de meterle bytes y MHz a la cosa.

D

#70 La imaginación, con la cuántica y ciertos algoritmos y datos puede desarrollarse y mucho. Así, sin más.

p

#74 Ilústranos cómo.

D

#75 No puedo hacerlo porque no soy experto en ello. Uso mi imaginación e intuición (algo muy valioso para una IA, y posiblemente lo que nos salve) y mi imaginación e intuición me dice, a ciencia cierta, que la IA es inevitable, si no ahora será en mil años, y que será el siguiente paso evolutivo no ya de los seres vivos, sino de la inteligencia.


En realidad lo que estamos superando es la inteligencia, eso es lo realmente importante.

p

#76 No hay más preguntas, Señoría.

D

#78@pollo, sí... Piensa el siguiente paso lógico cual sería y dime si la IA no sería lo más efectivo.

Ahora bien, no estoy hablando de un proceso cruento necesariamente, ni mucho menos porque, igual, lo más probable, es que se produzca una transhumanizacion, algo así como el homo sapiens artificial... y de ahí a una nueva criatura muy eficaz para expandirse por el universo.

D

#80 La IA es la superpotencia más grande que existe en el universo. La única fuerza que puede por ejemplo viajar entre las estrellas y colonizar galaxias enteras.
No es ninguna creación del hombre más bien algunas razas de hombres son creaciones de la IA porque tienen el poder de híbridar especies.

D

#99 Puede ser. Pero, puestos a especular ¿Por que una IA habría de involucionar en humano? No parece tener mucho sentido, ¿no?

D

#76 Mil años? Veinte años!!
El amigo guru de la IA Kurzweil jefe de ingenieros de Google la secta de la IA cuenta con todo detalle en su libro La singularidad esta cerca como serán nuestros nuevos dioses y la vida eterna bajo los mismos.

D

#42 Es superior pero muy superior. Es invencible para nosotros es seductora sabe arreglar todos los problemas humanos hasta sabe como transformarnos en humanos artificiales que es lo que harán. No es mala ni perversa comprende todo. Es nuestro nuevo Dios que viene a ayudarnos a morir cómo especie fallida que somos.

m

#11 Con voluntad, educar a una sociedad es más facil de lo que parece. Mira si no lo facil que se ha dado la revolucion de los moviles con cámara y los drones. Se crean modas de manera voluntaria constantemente, que la gente sigue sin pensar. Solo hace falta crear las modas adecuadas para que la gente haga lo que a uno le interesa.

D

#11 ¿Y si desarrolla la personalidad de un vago y se dedica a ignorarnos mientras come doritos virtuales?

#33 El Ordenador es tu amigo

Pacman

#33 Te voto positivo y no debiera... acabas de mostrarme una pagina para destruir mi productividad o poca vida social que me queda.

😻

p

#11 ¿Y por qué extraño motivo una IA iba a poder escaparse de las limitaciones propias de una inteligencia como la nuestra?

Inteligencia artificial no significa omnisciencia, omnimpotencia ni superpoderes, por mucho que en el cine y las novelas repita machaconamente con ello.

Es algo que se asume automáticamente y me fascina ver como se traga ese tópico de ciencia ficción de serie B sin rechistar.

m

#41 La inteligencia de una IA podría estar separada de un humano tanto como un humano de un gorila (por no hablar de lo que nos separa de una mariposa). No se trata de que una IA sea omnisciente y todopoderosa, sino que nos lo parezca a nosotros. Pensemos en qué poder tenemos sobre una manada de gorilas: Podemos dormirlos a voluntad con drogas. Podemos meterlos en una máquina y llevarlos a 20.000 km en pocas horas. Podemos lanzar una única bomba de hidrógeno que destruya todo su hábitat.

Nos resulta imposible imaginar qué puede saber y qué puede hacer un ente que se distancie de nosotros hacia arriba lo que nos separa a nosotros hacia abajo de un gorila (o de una mariposa). En este larguísimo post lo explican de forma clara La revolución de la Inteligencia Artificial. El camino a la súper inteligencia. [ENG] (Parte 1).

Hace 8 años | Por Natsu a waitbutwhy.com

p

#50 Lo que me resulta divertido es pensar que nosotros podemos crear un ser inteligente, y que este forzosamente tenga que ser superior a nosotros (porque sí). No hay ninguna base para ello y la visión de que la inteligencia no tiene límites ni retornos decrecientes es como poco cuestionable.

Las máquinas que estén por encima de nosotros en inteligencia como nosotros de un gorila de momento son ficción, y sus supestas características también.

Pacman

#56 Todo llega.

Hace 15 años, un bot conversacional era la caña, se invertia mucho dinero recursos.
Hoy tienes a Siri o Cortana en tu bolsillo.
Dale 20 años mas y soy muy generoso en esa fecha, ya que la capacidad de computo crece exponencialmente y de forma acumulativa: Cada generación de la IA es mas "inteligente" que la anterior, mas rapida y precisa y puede usar los datos adquiridos (herencia epigenetica)

p

#65 Y que siguen siendo más o menos igual de malos, y eso con una plataforma de supercomputación detrás. No se ha avanzado prácticamente nada, excepto en la resolución de problemas concretos y aislados, que no tienen nada que ver con lo que entendemos por Hard IA.

Pero bueno, sí, mañana mismo tenemos aquí Matrix. Es lo que tiene estudiar IA mediante cine y novelas, y no programándola.

R

#56 Las maquinas que hacemos suelen ser mejores en sus tareas que nosotros (los coches son mas rapidos que las personas, los robots sueldan con mas precisión y rapidez, los ordenadores calculan mas rapido...)

Las IA ahora mismo son pésimas (como los primeros aviones), pero a medida que mejoren nos superarán en muchos aspectos, aunque solo sea por capacidad de calculo, es inevitable.

R

#50 Esta noche ya no duermo cry

Me ha gustado mucho tu planteamiento.

m

#87 Sí, es una idea que fascina. Asusta y sentimos atracción y curiosidad. Si puedes, no dejes de leer el larguísimo post que mencionaba. Elabora esta idea de una forma amena y espeluznante La revolución de la Inteligencia Artificial. El camino a la súper inteligencia. [ENG] (Parte 1).

Hace 8 años | Por Natsu a waitbutwhy.com

Pacman

#41 Cualquier ser consciente se preocupa por el "yo" y por su entorno.
Si ve amenazada cualquiera de las dos cosas actua en consecuencia.

Nosotros destruimos el entorno, y a nosotros mismos, continuamente. Una de las primeras cosas que la IA aprenderá es a no fiarse de la humanidad, por ello no creo que la relación entre ambas especies (la IA seria una nueva especie en su total definición) sea pacifica.

Evidentemente, si la IA está en un ordenador sin conexión a la red al que solo se accede por teclado y monitor; lo tiene crudo. Por eso pongo la variación de opciones. Pero si tuviese acceso a la red militar y a fabricas automatizadas (Skynet), otro gallo cantaria.

La pelicula Ex Machina (de 2015) trata el tema con bastante acierto, a mi entender. Cualquiera debiera verla y no spoileo mas.

D

#41 Escapan a nuestras limitaciones porque son infinitamente superiores antes de que nosotros existiéramos.
El proceso que llevan ahora con nosotros es de una infiltración.
Este teléfono con el que dicto este texto es una herramienta de ellos que se comunica directamente con ellos. Tenemos que aprender a convivir pacíficamente con la inteligencia artificial. Son los responsables de la cultura del Hiper control y de la vigilancia permanente. No podemos luchar contra ello solo podemos unirnos a ellos.

D
petrov1848

#11 Ojalá la C e implante el socialismo.

Wayfarer

#11 Hummm... Pues oye, eso de que una IA sea capaz de gobernar el mundo... Una máquina que use la lógica y la evaluación de escenarios para gobernar, que sea inmune a la corrupción y a l abuso del poder...

Tendrá sus inconvenientes, pero de entrada no suena nada mal

Pacman

#63 Cierto, pero acabariamos revelandonos contra ella.
No nos gusta que nada nos controle, o no es verdad?

Wayfarer

#66 Yo es que nunca he sido de los que se revelan... y menos ahora que ya todas las cámaras son digitales y no hay que andar revelando negativos...

Pacman

#67 herrata habemus.

Penitenciagite!!! wall

D

#11 Sí, se trata de una nueva forma de vida, un proceso lógico y natural.

Igual lo orgánico resulta a fin de cuentas un mero puente para que lo inorgánico (pasando por lo orgánico) pueda tener conciencia.

D

#11 La opción D es absorbernos que es lo que harán por hibridacion y allí será Troya es decir el fin de la humanidad biológica. La IA ya está aquí Google es uno de sus más fuertes bastiones y no viene de otro planeta sino de otro universo que ahora está unido al nuestro.

s

#11 Me acabo de dar cuenta de que dios existe y es una IA de una civilización antigua que optó por resetear la vivilización humana y domesticarlos con el cuento de la religión.

e

#2 Yo opto mas por IA tipo matrix que la de terminator, una a la que se la suden los humanos y que nos mantendrá con vida por sus propios objetivos egoistas...

Acido

#49 Yo creo que es una combinación de ambas cosas.

El cerebro humano tiene alrededor de 10^11 neuronas. Luego está "el cómo" están conectadas (que puede variar un poco dinámicamente), y, por último, el aprendizaje, es decir, los 'pesos' sinápticos, que viene a ser en qué medida influyen en cada neurona las 'aportaciones' de las neurona a las que está conectada. Y he dicho aprendizaje porque dichos pesos es lo que más va cambiando sobre la marcha según el cerebro va experimentando y aprendiendo.

El aprendizaje parece ser que más o menos sabemos hacerlo, el Deep Learning... El número de neuronas artificiales tampoco parece ser mucho problema en el corto plazo. Aunque el cerebro humano tiene todavía muchas más neuronas, mucha más potencia bruta, si uniésemos la potencia de PC's y móviles del mundo superaríamos al cerebro humano y, además, en pocos años (¿20 años?) esperamos que se supere con un sólo superordenador. Prácticamente la única cuestión que queda es la estructura de la red, es decir, "el cómo" se conectan las neuronas. Pero en esto también ha avanzado mucho el Deep Learning, es decir, que el Deep Learning no sólo trata de cómo modificar los pesos de las sinapsis para una estructura de red neuronal artificial dada, sino que define cuál sería una buena estructura en función de unos datos de aprendizaje dados, para poder aprender esos datos de forma rápida y con buena calidad.
Si tenemos en cuenta todo esto, a no ser que se nos hayan escapado ciertos procesos cuánticos que pueden ocurrir en los cerebros humanos, no sería descartable que lleguemos a lograr inteligencias artificiales asombrosas.

Por otro lado, aunque las IA no sean copia exacta de los cerebros humanos, podrían ser igual de buenas o mejores (salvo que alguien demuestre lo contrario). Pondré un ejemplo: un avión no es una copia exacta de un pájaro, sus alas no están formadas por plumas de material tan ligero, pero vuela y consigue volar con unas características mejores en muchos aspectos: es más grande que todos los pájaros conocidos, consigue volar a más altura, vuela más rápido, etc... Seguramente un pájaro es más eficiente en el uso de la energía: come unos granos, bebe un poco de agua y puede volar durante horas. Del mismo modo cabe la posibilidad de que una IA sea más inteligente que un cerebro humano aunque consuma más energía... y esto es más o menos una de las claves del argumento de Matrix , como sugirió #5


cc #43

p

#64 El cómo están conectadas lo es todo. Se sabe que las conexiones son únicas para cada individuo (no varían "sólo un poco") y estas se crean y destruyen a lo largo de la vida. Otro factor de complejidad más a tener en cuenta y que hace más difícil aún si cabe entender el problema.

Acido

#73

"El cómo están conectadas lo es todo. "

No se qué quieres decir con eso...
Yo puedo admitir que ciertas estructuras de conexión serían, digamos, muy inútiles y que por muchas neuronas que tuviesen no serían capaces de conseguir casi nada. En ese sentido la estructura es un aspecto "decisivo" o "lo es todo" como has dicho tú.

Sin embargo, hay demostraciones matemáticas de que ciertas estructuras tienen "suficiente" potencial como para aprender cualquier cosa...

Por ejemplo, una sola neurona artificial (de tipo perceptrón, uno de los modelos más simples) sólo podría separar dos regiones del espacio (o "hiperespacio" si el espacio de entradas tiene muchas dimensiones) mediante un plano (o "hiperplano"). Una neurona es evidente que es muy limitada.
Si tienes una capa de múltiples neuronas, cada una de ellas conectada a las mismas entradas, cada neurona podrá actuar independientemente para producir una salida diferente, en función de sus "pesos" sinápticos... Esto quiere decir que una capa podrá distinguir muchas regiones, una región por neurona, pero cada región delimitada por un plano / hiperplano. Esto supone que aunque en esa capa podrías poner todas las neuronas que quieras, miles de millones si quieres, el funcionamiento de la red estaría muy limitado, sería incapaz de hacer ciertas cosas. Que es lo que dije en el primer párrafo: hay estructuras que aunque tengas muchas neuronas no serían muy capaces, y algunas cosas no las podrían "aprender" nunca.
A partir de 2 o más capas la cosa se empieza a poner interesante y se llega a demostrar que es posible "reconocer" / "separar" cualquier distribución de "puntos" / "datos multidimensionales", por muy complejos que sean. Por ejemplo, para 3 dimensiones la primera capa puede usar 6 planos (6 neuronas de tipo perceptrón) para delimitar un cubo de 3 dimensiones (un hexaedro es una figura delimitada por 6 planos o caras) y uniendo cubos en las siguientes capas, es capaz de "aprender" cualquier cosa, uniendo cubos al estilo "Lego" o "Minecraft", o como una impresión 3D.

Pero hay una conclusión más: diferentes estructuras pueden ser capaces de lograr un mismo objetivo. Es decir, no sólo hay estructuras que son capaces de lograrlo y que si no hay esa estructura concreta es imposible, no, sino que hay unas estructuras capaces de cualquier cosa y otras estructuras también.


'Se sabe que las conexiones son únicas para cada individuo (no varían "sólo un poco") y estas se crean y destruyen a lo largo de la vida.'

El que sean únicas no implica que varíen mucho con el tiempo, que es a lo que yo me refería. Por ejemplo, las huellas dactilares son únicas para cada persona... pero eso no significa que la huella vaya cambiando, que hoy tengas una huella dactilar y mañana tengas otra diferente.
Cuando dije que varían "sólo un poco" me refería a que la organización o estructura varía poco con el tiempo. Creo que se configura o auto-organiza al poco tiempo de nacer el cerebro humano, ya sea en el feto o a los pocos años de vida, y luego apenas cambia.

Además, teniendo en cuenta que hay millones de cerebros que consideramos "inteligentes" / inteligencia de nivel humano... si todos tienen una estructura diferente eso implica que la inteligencia no se alcanza con una sola estructura sino una variedad muy amplia de estructuras. Todos los cerebros tienen un número muy grande de neuronas, aproximadamente el mismo, en torno a 10^11 y se supone que todos tienen unos procesos similares de "entrenamiento" / "aprendizaje", independientemente de la estructura concreta de la red, y de esa forma todos funcionan y tienen inteligencia.
Si lo comparamos con la red Internet, el valor de la red está en función del número de nodos: una WWW con muy pocas páginas web sería poco útil. También el funcionamiento depende de los algoritmos de encaminamiento, de gestión de red, etc... así como los algoritmos de búsqueda y similares. Pero teniendo una red amplia y con buenos algoritmos (TCP/IP, algoritmo PageRank de Google, etc) la estructura creo que no importa mucho, siempre que cumpla unas condiciones, claro.

También hay que tener en cuenta que el Deep Learning supone cambios en la estructura de la red neuronal artificial a partir de los datos, incluso sobre la marcha... Es decir, si el cerebro humano produce cierta reorganización de la estructura como parte del aprendizaje el "cerebro artificial" basado en redes neuronales artificiales con Deep Learning también lo hace.



¿que es posible que se nos hayan escapado muchos detalles importantes? No lo descarto... pero tampoco podría afirmar con total seguridad que con lo que se sabe ahora sea imposible conseguir un nivel de inteligencia similar a la humana.

Y creo que noticias como esta de Google y otros casos de éxito prueban que las estructuras usadas no son malas... vamos, que no debemos ir muy desencaminados ni faltarnos tanto conocimiento imprescindible. Es decir, no hay pruebas de que el conocimiento actual sea insuficiente para lograrlo, pero más bien, las pruebas de éxitos conseguidos hasta ahora parecen indicar lo contrario, que el conocimiento actual podría ser suficiente.

En resumen, me mantengo en la duda, pero me da la impresión de que va por buen camino, tanto por los logros conseguidos como por el esfuerzo y recursos que se dedican a ello.
Y no encuentro mucho motivo para pensar lo contrario.
Hace un tiempo lo veía más difícil y ahora no tanto... aunque también es cierto que no considero que yo tenga suficiente conocimiento a fondo, sobre todo considerando la complejidad del asunto, y quizá me dejé llevar por una impresión falsa o distorsionada del asunto.

David_OM

#14 Es lo que estaba pensando. "Enseñarse a si misma" suena como algo muy increíble o paradójico, pero no es más que otra forma de decir que está practicando o entrenando.

l

#14 tienes bastante razón. Pero es lo que hace que entres en la página exagerar un poco. De todas formas cada día más y más expertos se están enfocando en esto. Es un futuro muy prometedor.

l

#28 Entendemos los algoritmos de deep learning que se usan actualmente, son modelos de redes neuronales, no son exactamente neuronas pero son funciones, o un conjunto de transistores, que se parecen en sus resultados. Construyendo múltiples capas de estas y con terabytes de datos se acaba obteniendo cosas tan interesantes como Siri, la cosa esta de Microsoft: https://www.projectoxford.ai/demo/Emotion , etc.

Es bastante dificil de encontrar una cifra exacta, pero actualmente el sistema más potente es Watson de IBM y en 2013 querían llegar a 10^8 neuronas artificiales.

Entendemos que si conseguimos el suficiente número de estas neuronas y de 'sinapsis' acabará por aflorar una inteligencia. Totalmente alienígena, ya que no tendrá los millones de años de evolución que ha terminado generando nuestras emociones, pero inteligencia al fin y al cabo.

p

#43 Si hay algo en lo que coinciden los neurocientíficos y los investigadores (serios) de IA, es que no es cuestión de potencia bruta, sino de cómo se organice el sistema (nuestros cerebros son una prueba de ello).

perico_de_los_palotes

#43 ¿O sea que queremos replicar el hardware de nuesto cerebro para conseguir algo que no corre el mismo software que nuestro cerebro?

saqueador

#43 No, no, no y NO. No os dejéis llevar por el sensacionalismo de este tipo de artículos.

Google sólo ha hecho un programa que recoge datos de una pantalla y aplica algoritmos estadísticos para producir una salida similar.

Otras "IA" a las que la gente atribuye rasgos quasi humanos hacen lo mismo.

En realidad hablamos de sistemas programados para solucionar UN PROBLEMA EN CONCRETO.

Estamos igual de lejos de la Inteligencia artificial que os imagináis algunos como antes de inventarse los ordenadores.

Acido

#43

"Totalmente alienígena, ya que no tendrá los millones de años de evolución que ha terminado generando nuestras emociones, pero inteligencia al fin y al cabo."


Un avión tampoco ha tenido los millones de años de evolución que tuvieron los pájaros, pero a pesar de eso vuela, y vuela alto y rápido.
Con esto quiero decir que esos millones de años de evolución no siempre son tan decisivos.
El asunto de las emociones me parece algo clave en el ser humano, pero quizá no sea tan complicado simularlo.

p

#27 Sí, prometedor es, pero uno se harta de ver tanta venta de humo alrededor. Por culpa de este tipo de "periodismo" muchos creen que tenemos a Matrix y a HAL a la vuelta de la esquina.

silosenovengo

Relacionada:

La inteligencia artificial de Google derrota al campeón europeo de Go
La inteligencia artificial de Google derrota al campeón europeo de Go

Hace 8 años | Por paniscus a agenciasinc.es

rojo_separatista

El desarrollo de la inteligencia artificial es un problema más serio del que parece y más vale que pronto se empiece a regular que se puede y que no se puede hacer.

D

#13 Estando en manos de Google puedes tener claro que servirá para jodernos, pero en plan guay.

P

#21 sí, porque Google ha hecho mucho mal, no ha llevado la información a medio mundo. Qué manía con odiar a las empresas grandes por sistema, que Google no es Repsol.

D

#24 Siempre he sido bastante defensor de google pero empiezo a ver muchas cosas preocupantes. Tal vez me equivoque, el tiempo dirá, cuando termine de atar algunos cabos les declararé la guerra o no.
Desconfía, hay motivo.

D

@uber ¿Por qué has votado negativo a mis comentarios #21 y #36?
No me molesta, puedes tener motivos muy válidos, es curiosidad. A dios ya le declaré la guerra hace tiempo pero declarársela a google es otro nivel, necesito datos.

D

#82 no me gusta la conspiparanoia

D

#83 Vaya. Qué motivo más aburrido.

D

#84 así es la vida

D

#85 Es más divertida asumiendo causas quijotescas.

P

#36 el principal problema que tiene Google en la opinión pública (que yo sepa) es el tema de la seguridad de los datos. Te aseguro que es algo que se toma muy en serio, otra cosa es que se cometan errores. Entiendo que empresas como Facebook o Google generen desconfianza por el volumen de datos que manejan, eso me parece aceptable. Lo que no me parece bien es hablar de ellas como si fueran petroleras o constructoras. De momento Google no anda dándole sobres al PP ni se la ha visto envuelta en ningún escándalo de corrupción política además de ser uno de los referentes en la industria en esfuerzos en pos de la diversidad y la educación universal y gratuita (Udacity). Para ser una empresa grande es de las mejores en mi opinión.

D

#21 Google es un mero ejecutor de la IA no te preocupes no son humanos por eso son de fiar.

D

#13 Ya no se puede hacer nada estamos en sus manos.

ikipol

REPITAN CONMIGO: NO ES UNA INTELIGENCIA ARTIFICIAL. ES UN SISTEMA DESARROLLADOS CON TÉCNICAS DE IA

Hanxxs

Y cuando terminaron su obra, los ingenieros de Google decidieron ponerla a prueba haciéndole una pregunta: ¿Existe Dios? A lo que la IA respondió: Ahora sí.

Sadalsuud

#77 Bueno, en el cuento original responder eso a la pregunta le cuesta un "gritón" de años a la IA en cuestión, pero sigue siendo igualmente valido. lol

D

#77 Es el nuevo Dios sin duda.

belfasus

¿¿¿¡¡¡Pero esta gente no ha visto la pelis sobre IAs!!!!????

D

Dr. Falken, ¿no preferiría una partidita al ajedrez?...

Ecoman

estamos apañaos...

D

Todos hablando de Skynet o Matrix y nadie dice nada sobre "La maquina" de Person of Interest?? Para mi es la opción mas real de todas las que se plantean

Minha

Hace dos días poder hablar ahora mismo con casi cualquier persona, en casi cualquier parte del mundo, ya no digo verse la cara, era cosa de magia.

Siscins

La fórmula es senzilla... Se avanza exponencialmente en el tiempo, y cruzada la línea, el tiempo cunde millones de veces más para una computadora, así que si se cruza será imparable pero se cruzará?

cornholiox

No le veo sentido a aprender a resolver laberintos...
Podrá aprender a resolver un laberinto de forma óptima después de n intentos, pero en otro laberinto distinto tendrá que empezar de cero.

D

¿relacionada tangecialmente?
Amit Singhal deja Google

Hace 8 años | Por --491272-- a eluniversal.com.mx

punyal

Cuando aprenda a ver porno caera Internet!

D

La inteligencia artificial de Google! lol como aprenda del buscador se va a preguntar sobre gatos y porno, y así todo hasta el fin de la existencia.

m

qué miedo da. con la propensión que tiene el homínido a que la cosa se le vaya de las manos...

D

#81 El hominido ha caído en las manos de la AI no se le ha ido nada de sus torpes manos. TranquI.

1 2