Hace 8 años | Por enjoyingbreatht... a malavida.com
Publicado hace 8 años por enjoyingbreathtaking a malavida.com

La inteligencia artificial de Flickr que Yahoo se niega a eliminar está jugando malas pasadas a fotógrafos y retratados con etiquetas automáticas hirientes y ofensivas

Comentarios

D

#8 Madre mía, la de negativos que te van a caer lol Va a ser una escabechina peor que la del científico genetista aquel que dijo que los negros eran ligeramente menos inteligentes que los blancos.

D

#8 rasista

Mister_Lala

#8 No siempre, algunos tienen cara de perro

Mister_Lala

#11 Y vaya a la moda que vaya

D

#25 Por que, por que los negros son simios o por que el zyklon B es un alimento.

A mi me parece un fallo que deberian solucionar rapido pero estoy de acuerdo con #8.

a

#26 Por uno de los dos.

D

#30 No pregunto cual.

roll

japeto

#8 Eso es tan absurdo como esto. Nivel Menéame.

D

#27 No es absurdo, imaginate que eres un programador y haces un algoritmo para deteccion de simios, y entre las variables a tener en cuenta tendras que usar:
-color de la piel
-color del pelo
-linea de la frente (tamaño de la frente donde empieza el pelo)
-ancho de la nariz
-largo y forma de la nariz (creo que ahi tienen la clave, en la forma de la nariz)
-vello facial (las pesronas negras puras, no mestizas, no tienen barba ni bigote como los gorilas)
-color de ojos
-distancia entre ojos y nariz y boca

Y coño, pues te salen unos parametros tremendamente similares a los deun gorila. De hecho si no fuera cierto, el algoritmo no haría esa confusión.

Lo mismo que confunde las latas de zyklon con latas de conserva (comida).

Seamos un poco rigurosos y dejemos aparte nuestros juicios morales, es la puta verdad. Como seguro podra confundir mas cosas con muchas similitudes a nivel empírico (medidas, colores y tamaños).

D

#37 "Es la puta verdad" excepto cuando el algoritmo pilla gente blanca, entonces "hay un error, ese algoritmo está equivocado" lol

D

#42 Evidentemente confundir un negro con un simio es un error, nadie ha dicho que no lo sea... ni que el algoritmo esté no esté equivocado, porque damos tantas vueltas?

japeto

#8 Sigamos con las tonterías.

s

#8

*********
#8 Hombre los ordenadores no entienden de correción política y lo cierto es que muchos negros se parecen a algunos primates,
*******

XP

Los humanos SOMOS PRIMATES sin excepción. Y no existen razas humanas

para mi que la A.I. ha puesto de manifiesto a lo que llevan los prejuicios de sus EDUCADORES (de querer sacarse a sí mismos del grupo de los primates)

D

La equivocación es no etiquetarnos a todos los humanos como monos.

AaLiYaH

La mayoría de algoritmos de reconocimiento visual se basan en histogramas de color y muchos de esos algoritmos buscan caras de blanquitos, que suelen ser a su vez los que las desarrollan (bueno, la mayoría son chinos, pero para colores de piel cuadra igual que un blanco).

Esta bien hacer productos de áreas que aún están en investigación, pero al menos que lean papers sobre el tema, que hay algoritmos a aburrir para solucionar este problema. Por no hablar de las pruebas...¿no les ha dado por pasar unos miles de fotos de caras de razas diferentes por su clasificador? Antes de hacer productos hay que testear que sean muy robustos...

Waskachu

#4 ha llegado el listillo que todo lo sabe...

AaLiYaH

#13 Ha llegado la listilla con un master en visión artificial, sí.

#16 Imagino que sabrás que las redes convolucionales (de eso va mi TFM, por cierto lol), aplican convoluciones aleatorias en cada capa hasta que los pesos se ajustan a la muestra de entrenamiento (por simplificar bastante y se entienda).

Las convoluciones, aunque aleatorias, no dejan de sacar descriptores que separan bien en el dominio y entre todas esas máscaras de convolución ten por seguro que, aleatoriamente, habrá surgido muy probablemente una de color. Por otra parte, el deep learning está ahora muy de moda y parece que todo se tiene que hacer con redes convolucionales, pero muchas veces hay resultados infinitamente mejores con otros tipos de clasificadores (SVM, bayessianos de todo tipo, vecinos cercanos...) o directamente sin clasificador, con métodos SIFT, SURF o match templating.

Si han conseguido un algoritmo capaz de separar SIEMPRE entre humanos y monos, pero falla en el color, es que no ha habido una muestra suficientemente robusta con un conjunto de datos idóneo de diferentes razas para que la red convolucional deje de tener en cuenta variables de color en su análisis.

Vamos, que tu argumento de "es una red convolucional" no refuta en nada que este algoritmo no es suficiente robusto y tiene en cuenta variables de color a la hora de buscar caras.

Waskachu

#46 wow, un master....

según tú, los que desarrollan la aplicación son gilipollas y no se han leido ni un paper... y tú que has hecho un master vienes a iluminarles...

y todo porque ha fallado una de las veces...

AaLiYaH

#47 No, no creo que sea un fallo casual. Por lo que he leído en otros foros sucede más veces...es lo que tiene que me interese el tema, que he buscado en más fuentes. Tu en cambio eres un cuñao y vienes aquí a anular opiniones de gente formada como buen españolito...ya se sabe, la ciencia y la I+D+i si viene por parte de un español seguro que no tiene ni puta idea hasta que le den un premio en el extranjero, claro, entonces somo todos super fanboys. Cuando ocurre eso y alguien tiene reconocimiento internacional aunque no sepais por qué, de nuevo les defendereis ante cualquier crítica, pese a que nadie es perfecto y pueden equivocarse en una tésis.

No son gilipollas ni mucho menos (es un algoritmo de la ostia), pero tienen recursos de sobra para tener la suficiente cantidad de muestras (Es Flickr, por dios) y/o testeado lo suficiente la aplicación para que pueda ser un producto robusto.

Pero bueno, que le vamos a hacer, no es la primera vez que viene un cuñao maleducado a defender marcas sin tener ni la más puta idea de que habla...yo por lo menos, como ya te he dicho, no vengo aquí a defender posturas como un borrego sin saber ni de que estoy hablando.

Por cierto, cuando te dan un ZAS en la boca por ir de gracioso listillo y quedas como un ignorante lo mejor es dejarlo, o seguirás haciendo el ridículo más y más, igual que este país hace el ridículo en el mundo entero en materias de Ciencia e I+D+i.

Marca España

Waskachu

#48 ok me equivoqué, no eres un listillo,eres una listilla.

Más te gustaría a ti que re ficharan en algún sitio que hiciera algo parecido a Flickr...

Envidia española. Marca España.

E

#16 como lo de la app de Microsoft que predice la edad. Que la he probado con fotos mías y en la mayoría acierta ±2 años, pero lo que se destacan son los errores (Mª Teresa Campos más joven que su hija, el bebé de 80 años...)

D

Joder la que se monta por una tontería.
Como dice #16, no es más que un error de un programa de reconocimiento visual, que entre millones y millones de fotos habrá muchos. Pero leyendo este titular y algunos comentarios parece que se acuse a este algoritmo de ser racista

ShogunShuriken

Admiten el error pero suelta frases como esta

estamos muy orgullosos de nuestra tecnología avanzada de reconocimiento de imágenes

A veces es mejor estar callado... wall

shinjikari

Si te ofende el error de un ente no pensante como es una máquina, el problema es tuyo.

s

#22 Al contrario. Está aprendiendo a pensar (lo haga o no es otra cosa) siendo educada.

NO es su error: Es el error de sus educadores. Ofenden ellos que le enseñan cosas que a la I.A. le llevan a eso

O de lo que utilicen como bases de conocimientos para educarla...

D

Para los informaticos interersados, el algoritmo se llama, High Identificator Total Locator Et Researcher

K

Joder para el Flickr...........

kelosepas

¿Alguien sabe de un sitio con recetas de Zyklon B para Thermomix?

D

Mierda de algoritmo, todo el mundo sabe o deberia saber que el Zyklon B es un gel de ducha con relajante muscular.

uno_d_tantos

¡Ole er Bi' Deita!

Socavador

Me están dando grimilla algunos comentarios por no decir asco.La leyenda, esta que está aquí abajo y que reza "comentarios xenófobos, racistas o difamatorios causarán la anulación de la cuenta" Está puesta porque quedaba chuli ¿Me equivoco?

D

Imaginaros que viene un extraterrestre a la tierra y le ponen delante a 3 animales y le dicen que dos son de la misma especie. Los animales son.

Un ser humano europeo.
Un ser humano africano.
Un gorila.

Estoy seguro que el extraterrestre dice que los de la misma especie son el africano y el gorila.

Sin acritud.

CoolCase

#20 Claro que si muchacho, todas las diferencias anatómicas evidentes las obvia y solo se fija en el color y poco más, no extrapoles tus limitaciones a las de un hipotético extraterrestre.

#20 O que los tres son de la misma especie con fuerte dimorfismo sexual, siendo el gorila la forma macho y los humanos la forma hembra.

s

#20 Que los tres lo son. Entonces, Y con acritud

D

Vaya troleada de Flickr sin querer.

a

Lo cual demuestra que es un 50% fiable.

D

Lo de "etiquetar" me acojonó en Picasa.

Y en FB, que accedí desde otro ordenador y me puso una foto de una reunion politica y me pidio que "identificara a los de la foto"... WTF!!!???

Las únicas etiquetas que no están llenas de mierda son las que uno se pone.

p

TIL qué es el Zyklon B.

chinpin92

Muchos negros parecen monos...aceptemoslo y ya.

s

#32 y algunos "blancos" son tan rematadamente peludos que...

D

#36 Pues el equivalente sería que confunda algunos blancos peludos con ciertas enfermedades con lobos... seguro que sería tremendamente ofensivo, pero es un ordenador...

http://diariode3.com/wp-content/uploads/2012/02/SINDROME.jpg

s

#40 Es una I.A. ojo

Los ordenadores está orientados al revés de como estamos montados nosotros. Y por eso nos complementan. DE arriba abajo, de gran capacidad de cálculo simbólico, baja en manejo de sentido común e intuición relacional

Veremos que hacen esas I.A. con ordenadores ampliados con redes neuronales físicas y con capacidad de proceso cuántico en unos años