Hace 8 años | Por jm22381 a francis.naukas.com
Publicado hace 8 años por jm22381 a francis.naukas.com

Contra todo pronóstico, tras perder las 3 primeras partidas, Lee Sedol ha vencido a AlphaGo en la cuarta. El héroe surcoreano ha mostrado en el medio juego su fuerza sobrehumana. Según los expertos su movimiento 78 ha derrotado de forma brillante a AlphaGo, que ha cometido un grave error en el movimiento 79. AlphaGo fue consciente del error en el movimiento 87, para ya era demasiado tarde para rectificar. Sedol ha jugado más relajado y ha dejado que su mente fluyera en absoluta libertad. El resultado: un juego perfecto y una victoria clara.

Comentarios

D

#7 El principio de Skynet.

Rembrandt

#7 Obviamente no fue consciente de nada. Simplemente durante unos 10 movimientos quizás estuvo calculando demasiado positivamente sus probabilidades de ganar. Al llegar al 87 midió mejor la situación y sus movimientos fueron "más acordes" a ello.

llorencs

#26 Que se podría traducir coloquiamente en que fue consciente de su error.

Rembrandt

#30 Coloquialmente puedes decir que se cagó patas abajo cuando vio como un inutil humano ojos rasgados le pudo comer la tostada.

garnok

#31 es un axioma: no importa lo bueno que seas a algo, siempre existira un asiatico que lo haga mejor que tu

a

#26 Seguro que es tan obvio ? Primero habria que definir claramente que es y como funciona la consciencia, pero nadie lo sabe. Personalmente nunca he podido comprobar si el resto de la gente es consciente, solo me lo creo por similaridad: tienen una forma y comportamiento parecido al mio.

En el caso del alphago si ha cambiado su comportamiento, de modo que parece que intentase corregir un error previo, si se puede decir que ha sido consciente de su error, a no ser que quieras utilizar una vara de medir distinta para las maquinas.

Rembrandt

#58 Es un ordenador que tiene metidos unos datos. Cuando está en una situación evalúa cual puede ser la mejor jugada. En el momento que hizo "el error" esa era la jugada que su algoritmo le decía que debía ejecutar. En otro momento los datos le decían que moviera tal, y luego más tarde tal. Eso no es corregir un error previo, es simplemente adaptarse a la situación en cada momento.

En esta partida ni siquiera está aprendiendo. Está congelado con los datos que ya tiene, así que no ha aprendido de lo que ha hecho en estas 4 partidas. Menos en mitad de una partida, no está programado para ello. Y si lo estuviera, tampoco sería "consciente" de nada. Se almacenaría en memoria que esa jugada no es la mejor en esa situación y punto.

D

#60 Realmente hay que ser muy valiente para hacer una afirmación como esa sin haber leido el paper que describe el algoritmo.

Rembrandt

#62 Esto que he dicho no lo digo por valentía... lo digo porque lo han repetido varias veces los creadores del AlphaGo

D

#63 que no aprende entre partidas y dentro de la misma partida?

No lo encuentro en ningún lado. Quizas te lo hayan dicho en persona.

Rembrandt

#64 Solo tienes que buscar en internet este tema, que lo han repetido hasta la saciedad. Si fueras algo más amable te pondría los links

A ver si tu aprendes durante los comentarios jeje

D

#65 Hasta la saciedad no creo, porque es un tema que sigo bastante de cerca y no lo había leído, además parece que contradice lo que está escrito en el paper de nature, así que por eso te preguntaba.

Igual te has encontrado a alguno de los programadores en un congreso y tienes información que no está libremente disponible par los demas.

n

#67 Yo he leído lo mismo que contesta Uber, que Alphago está "congelado" para este match por contrato. No puede aprender ni entre partidas ni durante la partida. El algoritmo y sus datos no pueden cambiar durante el match. LSD está jugando contra eso, contra la misma versión de Alphago cada vez, podría repetir esta estrategia en la última partida y funcionaría casi seguro.

Lógicamente, acabado el match, Alphago volvería a su rutina habitual de seguir aprendiendo, le inyectarían lo que hayan aprendido de este match, y en 3-4 meses ya sería imposible, o mucho más difícil.

Pero en serio, en Reddit al menos sale el tema cada dos por tres, y si no lo has leído es que o no has prestado demasiada atención, o donde te informas no se han enterado y no hablan del tema.

D

#65 Por lo que he leido, ha sido congelada la configuracion de hardware asi como el entrenamiento previo, pero no sabia que han limitado su capacidad de aprendizaje para estas partidas. No creo que 5 partidas puedan ser demasiada mejora, mas cuando puede aprenderlas despues, pero no veo sentido en quitar esta caracteristica, yo la dejaría aunque sea por curiosidad. Te agradeceria mas información al respecto.

a

#60 A no ser que creas que estas compuesto de algo mas que materia, quizas de algun tipo de consciencia divina, tu argumento no se sostiene, casi lo mismo podria decir del cerebro humano alguien que supiese perfectamente como funciona, cosa que a dia de hoy estamos muy lejos de saber.
Aparte de esto, varias afirmaciones que haces con respecto a los algoritmos utilizados son objetivamente erroneas.

Rembrandt

#66 Un algoritmo simple que juega ajedrez no tiene consciencia de nada. Este es más complejo, pero igualmente carece de consciencia. Que si, que podemos discutir (como se ha hecho durante siglos) que significa la consciencia (cogito ergo sum...)... pero como te comentaba antes, AlphaGo no está aprendiendo en estas 5 partidas nada. Porque así lo han querido.

a

#68 Igualmente conozco muchisima gente que repite lo mismo una y otra vez, pegandose siempre con la misma piedra, no aprende nada de sus experiencias y por ello no digo que son maquinas sin consciencia ninguna.

Me temo que nuestras definiciones de consciencia son demasiado diferentes, la mia la tengo mas o menos clara, pero la tuya ni idea. Por ejemplo para mi algo puede ser consciente de su error, lo que no implica que tenga que ser consciente de si mismo.

Por tu ultimo mensaje parece que el aprendizaje es algo clave, de modo que supongo que para ti las personas que por determinados traumatismos o enfermedades raras no pueden aprender nada nuevo u olvidan las cosas a los pocos segundos no tienen ninguna consciencia.

Rembrandt

#72 No seremos nosotros quienes fijemos lo que significa la consciencia. Es algo muy complejo como comentas.

Para mi algo que tiene consciencia es alguien/algo que es capaz de reconocerse a sí mismo, que tiene consciencia de si mismo.

Y si, ciertamente algunos animales podrían encajar en este aspecto (por ejemplo el tema de reconocerse en el espejo) y hay personas con problemas graves que no son capaces ni de pensar, ni de aprender, ni de recordar.

Para las máquinas existe el "test de turing": https://es.wikipedia.org/wiki/Test_de_Turing y similares...

Como ves, el enlace tiene miga y hay mucha historia detrás de este interesante tema.

hasta la actualidad (2016) ningún programador ha conseguido con éxito superar satisfactoriamente dicho test (si bien un bot conversacional bautizado como Eugene Goostman de 2014, logró engañar gran parte de un jurado de humanos que fueron usados para dicho test).

s

#60
***
esa era la jugada que su algoritmo le decía que debía ejecutar. En otro momento los datos le decían que moviera tal, [...] En esta partida ni siquiera está aprendiendo. Está congelado con los datos que ya tiene [...] Se almacenaría en memoria que esa jugada no es la mejor en esa situación y punto.
****

Pero, ¿cómo funciona AlphaGo?

Rembrandt

#82 "la aparición final de una verdadera conciencia artificial indiferenciable de la humana: esa máquina pensará, sentirá, aprenderá, se emocionará, y actuará en cualquier ámbito como nosotros...e incluso lo hará mejor.

... igualmente creo que en no más de 10 años se podría conseguir sin duda esta conciencia artificial que os digo"

pawer13

#60 #58 lo que ha pasado es que si la máquina estaba valorando su posición como "gano de 3 puntos", tras equivocarse siguió valorando la situación igual, no consiguió ver que ese movimiento le estaba haciendo perder. 8 movimientos después, tras un moviendo que ya no estaba cambiando sus opciones, de repente pasó a valorar la situación como "pierdo". Y entonces entró en modo berseker

a

#100 Mira que curioso, ha hecho exactamente igual que yo cuando juego al ajedrez y caigo en alguna trampa de mi oponente, y nunca nadie ha dudado de mi consciencia lol. Hasta lo del modo berseker tambien me pasa.

Simún

#3 Eso sin contar que las tres anteriores las había ganado ya la máquina.

a

#4 Y sin contar con que Sedol ha hecho algo de trampa, despues de las primeras derrotas se reunio con otros expertos en el juego para planificar una estrategia, asi que por ahora habria que decir que ha hecho falta media docena de humanos expertos para vencer una vez a la maquina.

Endor_Fino

#9 Cuando acabe con toda la humanidad no le hará falta saberlo

D

#9 ¡El poder de la amistad lo puede todo!

Varlak_

#29 melafo

Varlak_

#92 We couldn't find any images for you. None at all. Nope. We did try, though!

No se juega asi con los sentimientos de la gente clap

D

#93 Tienes que desactivar el filtro correspondiente... si realmente es lo que quieres

Varlak_

#94 nah, era de coña, pero me ha jodido ver que me estabas timando

u

#94 #95 oh, my God. He quitado el filtro y he visto cosas que jamás olvidaré---

Varlak_

#97 eso con una carretilla de vodka se soluciona.

D

#9 ... o sí.

j

#9 Igual se ha dejado ganar para hacer sentirse bien a su amigo humano.

D

#9

pawer13

#3 Precisamente mejorará aprendiendo de estos errores. Lee ha demostrado que en ciertas situaciones no sólo se equivoca sino que además le cuesta darse cuenta. Y cuando va perdiendo no sabe recuperarse

J

#6 El match es a 5 partidas. AlphaGo ya lo ha ganado.

D

#11 Es el comportamiento típico, ahora se deja ganar para dar esperanzas y que suban las apuestas para la próxima. tinfoil

D

#12 o tal vez es que las máquinas puedan sentir compasión, como Warsman...

s

#6 #11 Eres el rey de las commas. Repartelas por el mundo, hay gente que las necesita también.

D

Homo sapiens, yeah!

jm22381

Miserable humano, voy a lanzar misiles nucleares en represalia!
Vídeo de la partida a partir del minuto 30

m

#2 tinfoil

Flkn

La URL es ciertamente curiosa: francis.naukas.com/2016/03/13/lee-sedol-se-suicida-ante-alphago/

D

#53 Que yo sepa, en ajedrez no está resulto si un "juego perfecto" garantizaría la victoria o solo tablas, tanto en blancas como en negras.

timokotipelto

#55 Razon tienes, cuando dije ganas deberia haber dicho no pierdes.
Pero aun asi para el caso es lo mismo, si una maquina tiene "la solucion" vas a perder de todas todas. Por mucho que entrenes no vas a alcanzarla tu.
De hecho la "gracia" de esta inteligencia del Go es que aprende por si misma, hacer un algoritmo que gane a un humano no tiene gracia ninguna a estas alturas, hay otros desafios.

hellodolly

#0 El caso es que leyendo la entradilla no sabes si hablan de una partida de mus, poker, parchís o ajedrez lol lol lol lol lol

M

Bueno, siempre nos quedará el 3 en raya!

d

#28 tu viste juegos de guerra eh???

M

#37 Sí.

D

Que un ordenador gane a una persona jugando al go o al ajedrez, tiene tanto de inteligencia artificial como que le gane calculando el factorial de 37.

j

#32 Que un ordenador gane a una persona jugando al go o al ajedrez claro que es inteligencia artificial. Lo que pasa es que la inteligencia artificial se parece a la inteligencia "tradicional" lo mismo que el pepino de mar al pepino "tradicional".

D

#32 A menos que lo que este haciendo el ordenador sea aprender a calcular el factorial de 37, en lugar de calcularlo aplicando una formula. Que sin tener mucha idea del asunto, creo que es el tema.

p

#43 Para ser justos, el algoritmo no se basa únicamente en aprendizaje automático, sino que utiliza una biblioteca de partidas de maestros de Go, lo cual es hacer un poco de trampa ya que gran parte del repertorio de movimientos "buenos" que sabe el sistema son de humanos.

R

#45 El repertorio de Sedol también procede en gran parte de otros jugadores.

Lo que no es justo para mi es en que la maquina conoce todas las partidas de Sedol, mientras que el no ha podido estudiar muchas partidas de la maquina.

Si en la quinta partida tambien gana Sedol, tal vez se deba a que ha aprendido los puntos debiles de su oponente

p

#40 ¿Y qué tiene que ver?

Lógicamente se pondrá al nivel que tiene que estar, que será uno de los más altos, o incluso el más alto, pero eso no dice nada de dónde está el tope de su "habilidad". Cuando en un juego cualquiera se llega a las cercanías del máximo nivel de habilidad, llega un momento que las diferencias entre jugadores son extremadamente pequeñas (a veces tanto como para ser irrelevantes), y ganarán unas veces sí y otras no dependiendo de decisiones durante la partida que en la práctica son lo mismo que tirar una moneda ya que no hay forma de determinar cuál es mejor.

Eso debería ser evidente para cualquiera que haya leído cómo han programado y entrenado al algoritmo. Este algoritmo ha hecho muchísimas más partidas de las que cualquier campeón humano sería capaz de hacer a lo largo de 50 vidas. Y aún así, ha perdido, lo cual quiere decir tres cosas:
- no existe la estrategia perfecta en un juego de estas características.
- los retornos decrecientes ya han hecho que este algoritmo poco más pueda aprender ya. Si este algoritmo llega a mejorar, será porque sus programadores le hagan retoques, no porque se entrene más.

El algoritmo ha sido víctima de lo mismo que el jugador humano: hiperespecialización. Cuando el humano hizo hecho algo raro, el algoritmo no supo reaccionar. La misma forma de la que perdió el jugador humano las tres veces anteriores. Esto puede haber sido propiciado por el mismo método que los programadores han empleado para el entrenamiento de las redes neuronales: ponerle a competir contra sí mismo miles de millones de veces.

D

#44 Bueno, de hecho ha ganado.

Esto es el 3-1 y la partida es ha 5.

Su programadores no le han hecho ni le van a hacer ningún retoque, este algoritmo aprende simplemente de jugar contra versiones modificadas de si mismo, a diferencia de deep blue, no tiene ninguna estrategia codificada, es simple y puro aprendizaje.

p

#47 Y aún así, ha perdido contra un humano que ha hecho miles de millones menos de partidas que él (y además contra una IA que no deja de mejorar jamás según tú). Tras la partida 10.000.000 (por poner un número) ya debería ser Dios.

Eso debería ser revelador para cualquiera que esté dispuesto a pensar un poco en qué conclusiones se pueden sacar.

Según esas mismas premisas debería de ser totalmente imbatible en la teoría. En la práctica no lo es ya que las premisas están equivocadas.

D

#49 En la práctica han hecho la partida tan pronto como han estimado que tenía el nivel suficiente para ganar, y han acertado porque han ganado. La máquina pronto será mucho mejor de lo que es ahora, porque el mismo algoritmo ha mejorado enormemente desde que ganó al campeón europeo (600 del mundo) hasta que ha ganado al actual campeón mundial.

En estos meses no ha habido ningún cambio del código, ni ningún retoque, solo ha seguido entrenando, en ese mismo tiempo Fan Hui no ha mejorado en la misma proporción, sigue estando a años luz de los mejores del mundo.

Este es el reto computacional más importante de la historia, es equivalente a mandar al hombre a la luna, se ha hecho tan pronto se tenían garantías de ganar. Seguramente en un mes habría sido 5-0, pero este tipo de retos se basan mucho en relaciones públicas y se hacen tan pronto se puede, porque sino otro se adelanta. Facebook también está trabajando en el Go, si bien aún no son capaces de ganar a otros programas anteriores, ni mucho menos a un humano avanzado, pero si Google espera unos meses igual había sido Facebook el primero en ganar a un campeón del mundo.

a

#49 No, ha perdido contra varios humanos, han tenido que reunirse los principales expertos del mundo para planificar una estrategia nueva que pudiese ganar a la maquina, de modo que por ahora ningun humano ha ganado a la maquina.

jm22381

El árbol de decisiones del ajedrez vs el del Go ->

JungSpinoza

Alguna de las reacciones de Demis en Twitter:


Lee Sedol is playing brilliantly! #AlphaGo thought it
was doing well, but got confused on move 87. We
are in trouble now...


Mistake was on move 79, but #AlphaGo only came to
that realisation on around move 87


When I say 'thought' and 'realisation' I just mean the
output of #AlphaGo value net. It was around 70% at
move 79 and then dived on move 87


Lee Sedol wins game 4!!! Congratulations! He was
too good for us today and pressured #AlphaGo into
a mistake that it couldn’t recover from

Mister_Lala

Una vez más, el hombre vence a un algoritmo de puntuación de estados en un grafo mediante un eurístico. ¡Chúpate esa, AlphaGo!

a

http://i.imgur.com/3HcJKbk.png
Thinking time in minutes Lee Sedol vs Alphago

via reddit: /r/dataisbeautiful

D

Esto es irrelevante, desde que en enero publicaron el artículo en Nature, ya se sabía que el sistema no tiene límite superior y que aprende y mejora continuamente, así que ahora pueden quedar 4-1 o incluso 3-2. Pero en un mes será 5-0.

Esta es la última vez que tiene sentido un torneo humano-máquina al Go, lo de hoy es solo una anecdota, algo así como la última vez que un humano fue capaz de ganar a una máquina al Go.

p

#20 Lo que es irrelevante es creer que un juego de estas características tiene movimientos perfectos, cuando eso depende totalmente de lo que haga el adversario, así que a no ser que la IA pueda mágicamente predecir el futuro, eso de que puede perfeccionarse sin límite es un concepto inexistente.

Por otro lado, no deja de dar risa el que penséis que el jugador humano no puede mejorar también. De hecho es exactamente lo que ha ocurrido.

D

#35 Está maquina ha subido 600 puntos de ELO en 6 meses. No se si conoces a alguien que haga eso.

timokotipelto

#35 Tanto el Go como el ajedrez tienen "solucion" el problema esta en lo costoso de encontrarla. Es por eso que eventualmente habra un momento en que sea inutil tratar de ganar a la maquina porque dado un movimiento tuyo ella sabra que hacer para ganar, hagas lo que hagas.
La gracia de estos juegos es su complejidad, pero como todo juego con reglas hay pasos inequivocos hacia la victoria, hagas lo que hagas.

IAI

#20 Así somos los seres humanos. Para AlphaGo, ha aprendido una nueva situación para no perder. Para nosotros, el mejor jugador de Go ha conseguido ganarle una vez.

r

Y yo que no hay caso que entienda ése puto (con todos mis respetos) juego...

woopi

Curiosamente, he leído hace unos meses que DeepMind había aprendido a jugar al breakout. Con 10 minutos de entrenamiento, solo mediante observación visual hace esto: (Ojo: el objetivo era subir la puntuación aunque no lo entrenaron específicamente para este problema)



...a los 240 minutos ya no hay quien lo pille ¡Qué máquina! Nunca mejor dicho. De todas formas un avance tremendo en aprendizaje automático.

excesivo

Vivo fuera de España y no estoy al día en cuestiones deportivas.

Pero cuando veo noticias en portada como ésta, asumo que el Madrid está jugando contra el Barça o es la final de copa o algo así.

D

Si... Pero nunca sabrás lo que es el amor!!

Veelicus

go human, go!!!

los111.com

¿Son los seres humanos inteligentes? Si consiguen vencer a una máquina, la respuesta debe ser sí.

N

Ah, go... mis tiempos en la facultad cuando me hinchaba a jugar. Cualquier día me busco un programa de estos de juego online y le vuelvo a dar, xq lamentablemente hay muy poquita gente que juegue. Aunque no es lo mismo que en mi tablero y en persona.

sieteymedio

No sabía si hablaban de ajedrez o de street fighter.

N

A lo mejor Alphago se ha hecho consciente y quiere tener un amigo para jugar con jubilados.
Ahora bien, a ver si gana al truc. Que hay que mentir mucho.

D

De todas formas estaria bien que antes de intentar hacer algo con "inteligencia artificial" se supiera que es la inteligencia.

p

#33 Esto tiene poco de inteligencia (aparte de los que lo programaron). Pero es un logro para la computación, sin duda.

e

cuando saquen el betaGo se va a cagar ese humano!!

R

#71 Y tambien AlphaGo... ummmmmmm... ¿cuando las maquinas con IA acaben con los humanos temerán una version Beta que acabe con ellas? ¿discutiran sobre si deben desarrollar una Beta de la IA?

D

Bah, go por fuerza bruta. ¿Qué tiene de "inteligente"?

p

#42 Hombre, no es por fuerza bruta. Es fuerza bruta + aprendizaje automático, lo cual parece que da mucho mejor resultado que ambos métodos por separado.

j

#42 ¿Fuerza bruta? No se puede jugar a Go por fuerza bruta... al menos en una partida de menos de unos cuantos miles de millones de años.

http://senseis.xmp.net/?NumberOfPossibleGoGames =>
"If, on average, there are 100 legal moves in every position, then the possible number of games of length 400 or less is in the order of 10^800, corresponding to around 10^720 possible games for every atom in the known universe."

D

#56 Bah. Con aumentar 10^720 el número de procesadores, listo.. será por capacidad y tiempo, los de google..

#80 Es que yo aprendí a jugar al go con bolas de petanca y en el mismo centro de Bilbao.

p

#56 Hacen fuerza bruta parcialmente, pero limitan el árbol a lo que "aconsejan" las redes neuronales, para mantenerlo dentro de unos parámetros manejables, además de aplicar métodos Monte Carlo (no exploran las posibilidades sistemáticamente, sino que toman una muestra estadística aleatoria dentro del conjunto).

El resultado es muy bueno aparentemente, a pesar de no explorar todas las posibilidades, que es lo que haría un minimax "a pelo".

j

#85 Oh, eso seguro, pero ponderar varias posibilidades usando una heurística ya no es fuerza bruta :). De hecho seguro que Lee Sedol también baraja varias posibilidades dentro de lo que le parece buena opción cada vez que delibera, y no diría que Lee Sedol juega por dura bruta tampoco

Me has picado la curiosidad por cómo funciona AlphaGo, eso sí. ¡Gracias!

peperojoizquierdo

#42 Tu comentario si que ha sido bruto lol

1 2