Hace 8 años | Por mr_b a lamiradadelreplicante.com
Publicado hace 8 años por mr_b a lamiradadelreplicante.com

Andamos otra vez a vueltas con la seguridad en Linux, y todo a raíz de un artículo publicado ayer en The Washington Post en que se cuestionaba la fiabilidad del sistema del pingüino en ese aspecto. Aunque se ve que el periodista no controla demasiado del tema —llega a echar a Linux la culpa de hacking de Ashley Madison porque corría en sus servidores—, el artículo es interesante porque participan varios expertos de seguridad, además del propio Linus Torvalds, que se defiende de las acusaciones de tener un enfoque demasiado pasivo.

Comentarios

g

#56 Permiteme rebatirte un poco:

1) Se usa RDP desde hace años para gestionar servidores windows de manera gráfica.
2) Consola de administración remota: tu windows cliente frontend con todos los servidores que quieras añadidos para gestionar servicios, instalar o desinstalar roles o features, etc...
3) ¿Scripting? Powershell remoto, desde hace años.

El SSH mola, pero sinceramente a estas alturas ya huele un poco, aunque todo lo que sea por standarizar los protocolos bienvenido sea.

¿Microsoft odiar linux? todo lo contrario, y dicho publicamente en repetidas ocasiones:
https://www.google.es/search?q=microsoft+loves+linux&ie=utf-8&oe=utf-8&gws_rd=cr&ei=Wr8_VpaXFomsUZ78s0g

Además, Microsoft aporta código al kernel de linux desde hace años...
https://www.google.es/search?q=microsoft+loves+linux&ie=utf-8&oe=utf-8&gws_rd=cr&ei=Wr8_VpaXFomsUZ78s0g#q=microsoft+linux+kernel+code

pepejlr

#74 No me interesa un entorno gráfico para malgastar RAM innecesaria, así que el RDP no me vale. Por otro lado scripting es para añadir funcionalidades o automatizarlas. Ya si es más efectivo los scripts de Windows o los de Unix es caso aparte. Y lo de la consola remota como? Telnet? Pasamos a lo mismo de antes.

Sobre si Microsoft odia a Linux: https://www.google.es/search?q=microsoft+hates+linux&oq=microsoft+hates+linux&aqs=chrome..69i57.3665j0j1&sourceid=chrome&es_sm=93&ie=UTF-8 (Yo también sé usar Google para buscar lo contrario).

g

#75 ¿Entorno gráfico malgastando RAM? No estamos en los 90, cuando tu servidor tiene 128 gb de ram y el entorno gráfico gasta 0,5gb te la suda bastante y te da una manejabilidad adicional, incluso los linux servidores tienen entorno gráfico.

Por no hablar de que la RAM esta tirada de precio...

En cuanto a lo de gestionar servidores remotos mediante el panel de administración me refiero a esto:
http://blogs.technet.com/cfs-file.ashx/__key/communityserver-blogs-components-weblogfiles/00-00-00-48-12-metablogapi/7824.image_5F00_14F4BCB4.png

En cuanto a tu búsqueda de google veo un enlace de 2006, 4 enlaces del mismo tio posteando y el resto ya son desvaríos, no me sirve.

pepejlr

#80 Aún teniendo 128 GB, prefiero tener 127 GB en producción que ver como Windows coge RAM a su antojo solo por ponerme el entorno más bonito. Ni que fueramos a ver películas en servidores de datos.

Tu búsqueda de Google tampoco me ha servido, bueno, sí, que parece que te pagan por dejar bien a Microsoft y también en que Windows no sirve en máquinas "De más de 128 GB".

g

#81 No me pagan ni un duro, y además soy administrador de red hat. No se que maldita manía teneis de polarizarlo todo, yo trabajo con lo que mis clientes tienen, sea windows, linux, IOS o AS400.

pepejlr

#82 Si, pero Windows no vale en entornos de menos de 128 GB por justificar un entorno gráfico.

g

#83 Disculpa, no sé lo que quieres decir con tu comentario.

pepejlr

#84 Pues básicamente para montar un pequeño servicio en red de páginas web modesto no necesitas 128 GB de RAM como si fuese lo más normal del mundo. Y para lo poco que dispongo, prefiero quitar cosas innecesarias. El entorno gráfico de Windows Server es una de ellas y aún iniciando el sistema "en solo consola" sigues teniendo un CMD y un puntero del ratón sin saber por qué.

g

#85 Desde luego, si quieres montar un servidor web con una intranet para una pyme de 15 personas y tienes un pc dual core con 4 gigas de ram, ponle un ubuntu server y listo, nada que objetar.

Sin embargo cuando hablamos de sistemas operativos de servidor, hablamos normalmente de empresas que usan una infraestructura potente para dar servicio a cientos de usuarios, y si, es muy normal tener servidores de 128 GB de RAM, y los he visto de mucho más.

En cuanto a lo del windows server "core" sin interfaz gráfica, si, es una cosa bastante rara con ventanas mínimas, no te lo voy a negar.
De todos modos se ideó pensado en que lo gestiones de manera remota desde server manager, no para que accedas localmente.

pepejlr

#86 Quizás ese sea el problema, que he tenido que montar cosas en empresas "con lo que teniamos" y ver Windows Server con entorno gráfico lo veo de más. Da una sensación de que es pesado y por desgracia, AD comparado con OpenLDAP tiene muchisimas diferencias que hacen que las empresas quieran usar lo primero, también para preservar compatibilidad, puesto que los empleados de Windows no salen. Aún no he llegado a trabajar con servidores de más de 64 GB.

Un entorno de Windows Server puramente consola, con gestión de servicios y "daemons" usando powershell nativa agradaria a muchos administradores de sistemas. Gestionar un Active Directory con lo minimo ayudaria a no montar máquinas con muchos requerimientos. De momento aplaudo la iniciativa del actual CEO de implementar SSH nativo y que ayude al desarrollo de OpenSSH, quizás para la próxima versión de Windows Server, veremos cosas interesantes.

g

#87 Si el dinero es un problema y la empresa es una startup, microsoft te da 3 años de Azure gratis: https://www.microsoft.com/bizspark/

En Azure tambien puedes crear un dominio sin necesidad de un controlador de dominio (te ahorras una máquina virtual), con su AD y todo.

Y si no quieres montarlo con un entorno windows, desde la semana pasada microsoft ofrece red hat en Azure, incluso como opción por defecto si escoges linux.

Si lo de la nube no va con la filosofía de la empresa, con windows server 2012 te incluyen 2 licencias más virtuales, así que cada windows 2012 en realidad son 3 si instalas hyper-V en el windows host y otros 2 windows 2012 como máquinas virtuales. Sólo con eso ya tienes un host de hyper-v sólamente (que además puede ser sin entorno gráfico si quieres) + 2 VM que pueden ser un controlador de dominio/DNS + un exchange/servidor de ficheros/impresoras por ejemplo.

Fuera de lo que es el mundo microsoft, yo tiendo a usar ubuntu server o centos, dependiendo del tipo de empresa que sea. Si es mas de andar por casa y se van a solventar ellos mismos la papeleta, ubuntu server que siempre es más facil de encontrar documentación y ayuda de la comunidad sin tener que pagar.

En cambio si va a ser algo más serio, uso centos y se vende el soporte remoto para lo que necesiten hacer.

pepejlr

#88 Es interesante lo de las 2 licencias de más para virtualizar Windows Server en su propia plataforma Hyper-V. Y si, fuera de Microsoft, las empresas suelen usar mucho Ubuntu. Yo recomiendo siempre Debian que al ser los paquetes más viejos, a la larga están mejor auditados y dan menos problemas de estabilidad. El soporte de actualizaciones es casi el mismo de Ubuntu, por lo que lo veo una opción mejor.

CentOS también he usado y a la larga son similares las distribuciones Linux entre sí, ya eso a gusto del consumidor.

Azure es interesante, pero a las empresas les echa un poco para atrás que sus datos estén en terceros.

g

#89 Cuando algun cliente me dice eso, yo lo que le suelo decir es que no tienen por qué estar sus datos en azure. Se puede descargar en Azure (o amazon AWS o una VPS en 1and1 o lo que sea) la inteligencia y la carga de procesamiento y tener los datos y la información en local.

Por ejemplo la consola del antivirus se puede tener en la nube, el firewall se puede tener en la nube, los servidores SAP se puede tener en la nube, la web externa o la intranet... cosas que no almacenan información financiera, planes de negocio a futuro, informes de rendimiento, planos o diseños, fórmulas etc...

Esa información más "sensible" si no gusta se puede almacenar en servidores físicos de los de toda la vida y usar la nube con servicios federados para autenticar y conectar toda la infraestructura.

Misma filosofía y planteamiento con linux.

D

#74 Halloween documents.

1) RDP para > X servidores es un coñazo. Y como el cliente no tenga RFX eso va mas lento que el caballo del malo
2) MMC y demás también es tedioso y poco manejable
3) PSH es un coñazo. " pero sinceramente a estas alturas ya huele un poco" ¿Mande? es lo mejor que se ha inventado jamás. Puedes automatizar las instalaciones remotas, manejarlo desde cualquier cliente-cafetera, está en todas partes , se puede usar bajo VPN y encima sobre ancho de banda tira hasta bajo 56 y 128k.

Jakeukalane

#74 ¿Te suena EEE o los informes Halloween? ¿No? Pues usa Google un poquito que parece que se te da medianamente bien.

P

#19 No todo aquí es Podemos y Linux, también abundan los comentarios infantiles, las rabietas y las coñas sin humor.

D

#24 Y que lo digas, y el resentimiento, lo que más hay es resentimiento.

dudo

#24 el forocochinismo

D

#1 #3 Pues yo me he partido el culo

D

#3: De todas formas: ya vale con el calzador de las pelotas, no?
Si hubiera puesto el iconito le habríais dado palmas todos, verdad?

zhensydow

#1 #13 Es tu motto del día? Podemos es como GNU/Linux?

silosenovengo

#c-1" class="content-link" style="color: rgb(227, 86, 20)" data-toggle="popover" data-popover-type="comment" data-popover-url="/tooltip/comment/2507099/order/1">#1 Este es el año de

# setenforce 1

D

#1 Es hora de endurecer los rabos.

g

#39 Amen hermano.

fredy

¿todavía no se han dado cuenta que la seguridad depende del administrador y no tanto del sistema?

fredy

#4 humMm, true history, por eso el "no tanto", pero no me suena ningún sistema que sea seguro independientemente del administrador, por desgracia son demasiadas lineas, y demasiado oscurantismo en estos ámbitos.

D

#20 ¿Puedes tú parchear un fallo en el user, kernel, com o gdi de Windows si Microsoft no saca el parche?
Dime donde esta la lista de parches contribuidos para Windows.

No importa lo buen administrador que seas, hay cosas que no puedes parchear porque:
Son fallos de concepción. Para arreglarlos tienes que escribir medio SO nuevo y no depende de ti.
No tienes acceso al código fuente del SO.
Son fallos de protocolo. No hay otra solución que escribir un protocolo nuevo y estandarizarlo.
Son fallos en software de un tercero. Ejemplo Oracle, Citrix, Wmware, etc...

Desactivar un servicio para arreglar algo es algo que ningún buen administrador debería tener que hacer.
Si lo tienes instalado y activado es por que lo necesitas, y si no es así no deberías haberlo tenido instalado jamás.

Todos los sistemas operativos de los que no hay código fuente parten siempre en clara desventaja.
Cualquiera puede parchear un BSD, Linux, etc... pero cualquiera no puede parchear un Solaris, Windows, etc...
Los fabricantes sacarán parches si les interesa. Pero quizás les interese mucho más ir dejando bugs sin resolver para forzar al administrador a actualizar el SO, con el consiguiente desembolso.

Hay una serie de puntos en seguridad que son comunes a todos los SO. Por ejemplo si dependes de aplicaciones de terceros.
Pero hay otros que son exclusivos de SO propietarios y no tienen más solución que depender de que el fabricante lo solucione o no, o escoger otro SO.
Otro problema es la administración de equipos, aplicación de parches/hotfix, etc... No es lo mismo gestionar 3000 equipos que 30 con Windows o con otro SO estilo Unix. Ni color. Y eso es algo que también lleva a muchos problemas de seguridad.

#34 Totalmente de acuerdo. Solo es una manera de presentarlo.
El único ordenador seguro es el que está guardado en la caja fuerte de Fort Knox rodeado de una guarnición del ejército... y apagado.

Zeratul

#35 Parece que haya dicho que los servidores Windows fueran igual de seguros que los Linux/Unix, cuando en realidad dije lo contrario. Está claro que los sistemas operativos de código abierto dan mucho más margen para parchear y solucionar los fallos de seguridad, eso es obvio pues es la propia razón de ser de esas licencias. Lo cual no quita que ningún sistema operativo sea del todo seguro y que un administrador de sistemas siempre tenga algo de margen incluso en sistemas propietarios, pues los errores de seguridad que se suelen explotar rara vez son de partes criticas como el kernel, sino servicios o software de terceros.

Y respecto a que ningún administrador debería tener servicios no imprescindibles para el servidor, en realidad los propios administradores de sistemas no suelen ser quienes eligen que software instalar, sino que dependen de los desarrolladores o los propios usuarios. Y no es raro que haya servicios no imprescindibles en todos los servidores, que facilitan las cosas pero pueden ser desactivados temporalmente. Aparte, en caso de un fallo de seguridad muy gordo puede ser preferible cortar un servicio imprescindible a comprometer los datos de todos los clientes, por ejemplo.

Respecto a las listas de Microsoft, ni pajolera idea, me suena que tienen listados de parches de seguridad los segundos Martes de cada mes y ciertos clientes reciben esa información antes. Pero desconozco a que clientes y en que condiciones, puede que sea a todos los clientes de Windows Server o solo a otras grandes empresas e instituciones públicas. Pero vamos, que hay millones de servidores funcionando con Windows y no se caen a trozos, su sistema tendrán.

D

#70 La razón de ser las licencias es la de compartir y garantizar el acceso al conocimiento. No que los administradores tengan más fácil parchear.
Lo uno es resultado de lo otro.
Si un administrador instala algo solo por que se lo dice un usuario o programador sin que estos realmente lo utilicen, no es un administrador si no otra cosa.

Lo de las listas era un comentario irónico, no existe tal cosa en software propietario. Habitualmente no hay forma de que la comunidad arregle nada.
Lo de que no se caen a trozos habría que comprobarlo con los datos en la mano.

D

#4 "Sistema inseguro - Administrador seguro = Sistema inseguro."

Supongamos que tienes un equipamiento que solo funciona a través de un sistema operativo antiguo, como Windows 98. Por poner un ejemplo imaginemos que se trata de una estación meteorológica. Es antigua pero es buena y si quieres que funcione en un sistema moderno el fabricante te dice que te compres un modelo nuevo. Un administrador seguro se limitaría a instalar un Windows 98 en una máquina virtual aislada y configurarla para que los archivos con los datos de la estación se almacenasen en una carpeta compartida. Nadie puede acceder a la máquina virtual y está aislada de la red, los archivos con la información va a un directorio donde solo los administradores y la máquina virtual pueden escribir. Ahora me cuentas donde está la inseguridad.

D

#37

Sabes que hay bugs que te permiten saltar desde la máquina virtualizada al host.

Para esto primero tendrías que comprometer el host. Ya me dirás cómo vas a comprometer un equipo al que no tienes acceso ni de forma física ni a través de la red local.

Sabes que hay virus y gusanos para prácticamente cada tipo de fichero existente, no es necesario que sea un ejecutable. La carpeta compartida es un vector de infección en los dos sentidos.

No lo es dado que solo la máquina virtual tiene acceso de escritura y el resto del mundo tendría acceso de lectura con lo que sería imposible dejarle un archivo infectado (además de que, aunque lo dejases, la máquina virtual no tendría ninguna razón para abrirlo).

Has puesto un ejemplo totalmente exagerado y ridículo para los tiempos IOT que corren, pero ni aun así es seguro.

De exagerado nada. Hace tiempo me tocó configurar un servidor con un Windows 2000 para instalar un servidor de licencias de una aplicación que se negaba a funcionar en nada que fuera más moderno que un Windows 2000. A esa máquina solo tenían acceso los administradores, solo se podía comunicar por la red a través del puerto que utilizaba dicha aplicación y, por supuesto, esa aplicación era lo único que tenía instalada.

D

#43 No hombre, el 100% no existe en seguridad. Y prácticamente en nada.
Pero normalmente no hace falta un 100% para considerar algo seguro.

Por ejemplo tienes bugs que solo se pueden explotar localmente o que dependen de un cúmulo de versiones de librerías, y configuración concreta para que el bug funcione.
Un software puede no ser por ejemplo 100% seguro en conjunto, pero quizás sí puede ser 100% seguro a explotación remota.

Por ejemplo yo en casa no tengo jamás ningún servicio corriendo que no use.
No tengo ningún demonio escuchando en ninguna interfaz que no deba o directamente solo accesible a través de localhost con un tunel ssh.
Aparte los tcp wrappers todo en deny y luego abriendo servicio/puerto a host concreto.
No tengo ningún bridge entre la red local y le wifi. Va separado.
No permito acceso por ssh como root.
Cada demonio corriendo con su propio limitado usuario.
Y encima de todo esto el firewall.
Creo que en lineas generales se puede decir que es seguro. No 100% pero seguro.

#45 No me has entendido, se compromete desde el guest. No desde el host.
¿Si es exagerado por que cual es la cantidad de equipos servidores o no que no tienen ningún tipo de acceso a red y además están virtualizados?
Normalmente la utilidad viene asociada en gran medida a la conectividad.

yusavi

#28 ¿Consideramos el W98 como el sistema?¿O consideramos el SO anfitrión como sistema? Por dar la lata de buen rollo, ya que así el sistema no sería el SO inseguro ¿no?

D

#4 Puntualizar que no existe el sistema seguro.
De acuerdo en que el administrador y/o el SO influyen en el nivel de seguridad.

d

#4 La puerta AND de la seguridad, me gusta!! lol

PythonMan8

#51 Pero me refiero a una tecnología que funcione YA, y que esté probada en millones de servidores, no en "previews" que todavía no están a la venta, ni nadie ha probado, ni se sabe si será estable o tardará años en estabilizarse o se quedará en promesas (como suele ser el caso con Microsoft) y que no necesite el pago de nuevas licencias. Lo digo, porque ahora mismo, yo me cogo un Linux de escritorio como Ubuntu (no me hace falta tener una edición especial para servidores) y le puedo poner docker. Me refiero, ¿cuándo podré coger mi portátil con windows 7/8/10 y ejecutar algo en un contenedor, como YA estoy haciendo en Linux?. Creo que muy poca gente tendrá acceso a versiones Server 2016 en los próximos 5-10 años, por lo que entiendo que un sistema tan superior ya debe tener algo que me permita trabajar en mi portátil.

f

Una ocasión perfecta para ralentizar el sistema el 100% del tiempo para el 100% de los usuarios, por algo que sólo sucede un 1% del tiempo y afecta a un 0,001% de los usuarios.

8 años usando Linux sin antivirus y oye, ni un problema. Pero me lo van a solucionar.

cyrus

#38 los virus son un problema menor, el problema es que por errores en aplicaciones se pueda acceder a información que no se debería. Por ejemplo.

pepejlr

#46 Para eso ya existe SELinux.

D

#46 Entonces el problema será la aplicación no el SO.

D

#64 Pues sí, el problema es la aplicación... y la solución es tan simple como no usarla. Fuera navegador, fuera cualquier aplicación que interactúe con algo conectado a red, o descargado de red, o potencialmente externo al sistema.

Venga, que sí roll

D

#97 La solución es tan simple como actualizar la aplicación cuando toca. No tiene nada que ver con el OS que estés usando.

D

#38 Ya te digo, si es que no sé qué haces perdiendo rendimiento de sistema en permisos, usuarios y mierdas varias, si fijo que eres el único que usa tu ordenador; deberías ejecutar todo como root, que es más rápido

PythonMan8

#29 oye, yo de güindous es que se poco. ¿me puedes explicar qué tecnología de contenedores tipo Docker existe en güindous? Lo digo porque todas las empresas con las que tengo contacto están tirando sus servidores güindous a la basura y pasándose a Docker-Linux, lo que me extraña mucho dada la superioridad de güindos-server-profesional-enterprais-que-te-cagas-edition.

PythonMan8

#51 Por cierto, el segundo enlace que envías sólo habla de la parte cliente, es decir el front-end, que sirve más bien de poco pues continua necesitando una máquina Linux donde ejecutarse el servicio. Una vez que tengo la máquina virtual con Linux puedo utilizar los comandos dentro de la misma. Ejecutarlo desde Windows no supone ninguna diferencia. Estoy preguntando por la solución nativa de Windows. Me refiero poder preparar un contenedor con mi aplicación en mi portátil Windows 7 Home y ejecutarlo sin cambios en mi servidor en la nube de Amazon. Esto es algo que ya estoy haciendo en Linux desde hace más de 2 años, pero no entiendo como un sistema tan superior como güindous no lo soporta.

D

#51 Docker en Windows lleva una máquina virtual. Hasta OSX en eso es más serio, pues tiene unas jaulas tipo FreeBSD.
https://github.com/mist64/xhyve

Menudo chiste los NT y compañía.

g

#48 Lo más parecido que conozco es utilizar la feature KSM de KVM para poder meter en la misma ram los distintos kernels de windows que tengas corriendo, pero de manera nativa como tal, cero pelotero. (ojalá...)

D

#29 Para soltar semejante afirmación tu no has visto un entorno de escritorio de Gnu/Linux lo menos desde que la Conectiva venía en cdrom con el PCWorld.

D

Seguro que usaban tarjetas sim para guardar sus archivos en sus Raspberry Pi. lol lol

S

#29 Tienes pinta de ser de esos linuxeros "expertos" que creen que saben mucho de ordenadores por saber instalar distros, pero que eso de AD, exchange, SQL Server, sharepoint les suena a cosas exóticas y que creen que mezclar "Windows" y "servidor" en la misma frase es una blasfemia.
He hecho con Linux cosas más avanzadas de las que se pueden hacer con Windows, como son por ejemplo:
* Instalarlo en un ARM de control industrial, y desarrollar dentro de ese sistema diferentes drivers para controlar maquinaria en tiempo real. Dichos sistemas tienen sólo 64 MB de RAM, una SSD que no soporta muchas reescrituras y no tienen tarjeta gráfica ni nada similar.
* Desplegarlo en cientos de máquinas Intel con el fin de hacer de caché web para diferentes lugares del mundo, administrado desde varios servidores centrales, y con un watchdog hardware para obligarlas a reiniciarse automáticamente incluso cuando se cuelgan a lo bestia.

Pero sí, no soy más que un aficionado que no sabe nada de AD (excepto cuando lo estuve utilizando para administrar los 100 ordenadores de un colegio). ¿Qué voy a saber hacer, si me llevó varias horas descubrir por qué Windows 8 no desmonta las particiones cuando le mandas apagar? (porque cuando le mandas apagar, pasa de tí y en lugar de apagar, hiberna).

Así que chato, cuando consigas instalar Windows en un ARM sin gráfica, cuando consigas que Windows funcione en los teléfonos móviles de medio mundo, cuando consigas que Windows escriba un máximo de una vez por hora en el almacenamiento físico, cuando consigas que Windows funcione en tu enrutador (como está haciendo Linux ahora mismo), cuando puedas hacer que Windows funcione en los 10 mayores supercomputadores del mundo https://en.wikipedia.org/wiki/TOP500#Top_10_ranking (actualmente sólo puede funcionar en 5, mientras que Linux no sólo puede sino que ESTÁ funcionando en los 10), cuando consigas todo eso, me vienes a trolear.

Libertual

La seguridad ya no es inherente al sistema operativo sino al operador del sistema.

d

¿Entonces qué queremos? ¿Instalar un software y/o hardware que nos garantice la seguridad total?

Es como ir de putas, que te contagien una venerea y querer echarle la culpa a la puta, al fabricante de los condones que no te has puesto o a tu sistema inmunológico, que no ha estado a la altura.

La seguridad de un sistema es cuestión de varios factores, y los usuarios es uno de ellos. Y la mayoría de malware que conozco se basa más en la pasividad de un usuario, en exclusiva o conjuntamente a otros factores (fallos en el sistema operativo, en el hardaware...)

Cuando el común de los usuarios tengan claro eso, el tema de la seguridad informática estará bastante resuelto. Los "malos" lo tendrán bastante más jodido.

D

#36 Sí. Y es totalmente factible. Al menos con la parte del software.

d

#41 ¿Que la seguridad total en el software es totalmente factible? Móntate una empresa de sofware de seguridad. Si puedes garantiar eso... ¡te vas a forrar!

pepejlr

#36 Linux debe seguir innovando, por eso me parece interesante Kernel Self Protection Project. Si Linux puede escalar un peldaño en seguridad sin comprometer el rendimiento y la compatibilidad existentes, bienvenido sea.

Pero como tú bien dices, la gran mayoria de problemas de seguridad son debidos a la pasividad del usuario/"administrador de sistemas" de turno en blindar el sistema o en no ejecutar/pinchar ciertas cosas que son "caca" como si fueran niños pequeños.

D

#36 "Cuando el común de los usuarios tengan claro eso..."

Y ya de paso que los cerdos vuelen y las ranas críen pelo

u

Linus hace bien su parte de trabajo, no entiendo a que viene meterlo en estas cosas.

xiscosoft

Tanto como hora, hora... desde al menos el 2004 que existen cosas como Gentoo Hardened para los raritos como un servidor...

D

#55 Lo que va siendo hora es de aplicar a todas las distribuciones lo mismo que lleva haciendo Gentoo Hardened desde hace tiempo. Que lo normal es que usen kernels sin PaX ni Grsec, apenas traigan reglas de SELinux (las que lo traen), y cosas como hardened toolchain les suenan a chino.
Vamos, que sí, que herramientas hay, pero no se usan... y va siendo hora de usarlas. Me parece muy bien que por fin estas cosas se incorporen en upstream.

ann_pe

#95 RHEL/CentOS tiene SELinux activado de serie y reglas para todos los paquetes oficiales.

Ubuntu tiene AppArmor, también en modo Enforcing, no para todos los paquetes pero sí para muchos.

El problema es que SELinux cuando se instala software de fuera de los repos hay que crear nuevas reglas sí o sí, y muchos prefieren desactivarlo.

D

Cualquier sistema operativo es inseguro sin un adecuado mantenimiento y políticas de seguridad detrás, a parte del hecho que la principal causa de las intrusiones son los servicios que corren sobre el sistema operativo.

d

Un software puede no ser por ejemplo 100% seguro en conjunto, pero quizás sí puede ser 100% seguro a explotación remota.

En el mejor de los casos, será 100% seguro a los riesgos conocidos. Pero problema de ponerle un cerrojo a una puerta, es que automáticamente vas a tener a alguien queriendo abrirla sin la llave.
Y con el conocimiento que pareces tener de seguridad, no creo que te esté diciendo nada nuevo.

Podemos acordar que un 99% de seguridad es suficiente, ¿o es el 99.9%? ¿o es el 99.999999%? ¿Qué porcentaje se considera seguro? ¿En qué contexto? ¿Qué precio tiene ese nivel de seguridad?

De un sistema informático lo único que podrás decir con toda seguridad es que no sabes hacerlo más seguro. Y hasta eso puede cambiar el día siguiente.

Penetrator

#29 lo que es el escritorio de las últimas versiones de Windows, les da un repasillo

Tú flipas. El escritorio de Windows 8 es BASURA. El de Windows 10 todavía no lo he analizado con detenimiento, pero por lo poco que he podido ver parece ser la misma mierda. El último Windows con un escritorio usable fue el 7, y de eso ya hace 6 años.

D

#29 He tocado AD y demás ye sa puta mierda no la entiende bien ni el que lo parió. Y cuando funcionaba cascaba un servicio día sí y día tambien. Hyper-V + el balanceador de Windows era y es un puto chiste comparado con otros balanceadores de Linux y KVM.

D

#29 " Tanto sabes, que ni tan siquiera sabes que hace años que existen versiones de Windows Server sin entorno gráfico roll"

Sin escritorio, no me seas patán. Entorno gráfico llevan. WDM y cmd.exe . ESO SÍ es un entorno gráfico.

Y es tan basura que cuando hay un error muchas veces no se puede acceder por RDP para cerrar un diálogo gráfico.

Cómparalo con X11 y una XTERM .

Si los de NT cogen todo lo de BSD para TCP/IP, ¿por qué coño no meten un kernel BSD con Win32 encima y .Net? Arrasarían.

Y como interfaz de comandos, ksh y perl+API Windows, no ese truño de PowerShell.

D

Pues nada, hay que llamar a los guardaespaldas.

chumifu

A ver si nos enteramos de que no hay nada "seguro". Se tarda más o menos tiempo, requiere más o menos dinero, pero si se quiere, se rompe.

PD: No me salgáis con el cuento de la encriptación cuántica que eso es cuñadisimo nivel master.

D

#30
El cifrado cuántico es irrompible con los ordenadores actuales.

m

#62 También es imposible de hacer con los ordenadores actuales, ¿no?

D

Lo que hay que endurecer es la seguridad en Android, pero para eso miren a la gran G.

No, es hora de pasarse a Windows.

Tao-Pai-Pai

Linux tenía la fama de ser un sistema seguro simplemente porque no lo usaba ni el Tato. Con la llegada de Android y su expansión se ha visto que es tan mierda como cualquier otro sistema operativo. lol

megusta

#8 Pero si el núcleo nunca ha causado un problema de seguridad en Android y bastantes años antes de que naciera Linux corría en buena parte de los servidores del mundo que son más jugosos que un teléfono móvil.

G

#8 menuda burrada has dicho cuando desde siempre si quieres atacar un servidor , router o similar seguramente te encuentres el 90% con un sistema operativo linux, derivado o tipo unix.

D

#8 Android no es Gnu/Linux.

f

#17 Es Linux, y en la noticia hablan de Linux (nucleo)

Jakeukalane

#99 Los problemas de seguridad de Android no vienen del núcleo sino de lo que está más arriba de la máquina virtual java...

D

#8 Android no es Gnu-Linux.

D

#8 Android no es Gnu~Linux.

Capitan_Centollo

#8 Linux no es un sistema operativo, es el núcleo. Android es un sistema operativo con núcleo Linux, pero no aprovecha las características que posee el núcleo para implementar un nivel de seguridad decente. Hay sistemas operativos Gnu/Linux que son absolutamente paranoicos en temas de seguridad, y aún así, si no se administra el sistema adecuadamente la seguridad no será todo lo efectiva que pudiera ser.

e

#8 Es más. ¿Qué tal van de seguridad los teléfonos con Windows? Jajajaja. Eso no lo sabe nadie porque esos sí que no los usa ni el tato.

AsK0S1t10

#52 Me pasé a Windows después de un iphone (ni loco me gasto de nuevo el pastizal que cuesta, el que tenía fueron 400€ que ya es una pasta, pero ahora son prohibitivos), un Android (280€) que me resultó tosco, muy lento, impredecible y con muchísimas aplicaciones que la mitad del código era para asuntos muy distinto a lo que su suponía que hacía. Desde que tengo el Lumina, por menos de 200€ soy muy feliz, no e echado en falta ninguna aplicación, hace lo que tiene que hacer, muy fluido, ergonómico, y la interfaz mil veces mas amigable que Android. De verdad, que ahora mismo la relación calidad-precio de los Lumias me parece la mejor, y el S.O. muy bueno, como usuario lo prefiero a Android mil veces. La falta de aplicaciones, me di cuenta, que el 90% las instalaba solo para probarlas, que nunca más las volvía a abrir, y lo único que conseguía era meter basura en el teléfono.

No lo tiene ni el tato, pero no conozco a nadie que esté descontento de el, de Android más de un rebotado.

Fingolfin

Es hora de dejarse de inventos raros y volver a Windows como hijos pródigos. Linux estuvo muy bien en su día mientras Microsoft ignoraba a sus usuarios porque era un monopolio, pero ahora que ya no es un imperio y tiene que ganarse la confianza de la gente han mejorado y le da mil vueltas.

s

#10 te van a freír a negativos por hereje

Fingolfin

#23 optimizando el entorno de escritorio de Windows para un servidor

Tanto sabes, que ni tan siquiera sabes que hace años que existen versiones de Windows Server sin entorno gráfico roll

Que por cierto, lo que habría que optimizar son los grandes escritorios linuxeros, porque lo que es el escritorio de las últimas versiones de Windows, les da un repasillo.

Tienes pinta de ser de esos linuxeros "expertos" que creen que saben mucho de ordenadores por saber instalar distros, pero que eso de AD, exchange, SQL Server, sharepoint les suena a cosas exóticas y que creen que mezclar "Windows" y "servidor" en la misma frase es una blasfemia.

jixbo

#10 Sí, mejor pongamos el kernel de windows a todos los android, y pongamos windows a todos los servidores de servicios críticos. Hagamos caso a #10 que se nota que sabe.

D

#10 estoy esperando que salga uno bueno para cambiarme.

D

#10 No se si lo dices por valentía o por inconsciencia.

pepejlr

#10 Si, Microsoft ha cambiado drásticamente la política, pero el código sigue siendo cerrado.

D

#10: Aunque me gusta mucho Linux y el software libre, creo que todos debemos aceptar la aplastante realidad.

En esta época ya no importa si sale KDE XP o GNOME Milenium. Cuando Linux tuvo la oportunidad de ganar un poco de mercado en el escritorio, perdió tiempo y esfuerzos duplicando el trabajo ya hecho. Si KDE y GNOME hubiesen trabajado hombro con hombro para dotar a Linux de un entorno de escritorio, seguramente tendríamos una interfaz gráfica de usuario decente. Pero en lugar de eso tenemos dos mediocres intentos que no pueden usarse a menos que se tenga 1Gb de RAM y todo el tiempo del mundo para configurar el protector de pantalla.

Mientras ambos equipos peleaban infantilmente, Microsoft consolidó su posición como líder en el mercado del cómputo de oficina dandole a los usuarios lo que pedían: una interfaz gráfica de usuario intuitiva que les permitiera ser productivos sin tener que memorizar el manual (Tan grande como una bíblia!) de vi o de TeX.

Y no sólo eso, M$ también llevó la facilidad de uso y eficiencia que caracteriza a sus productos a los servidores con el novedoso sistema operativo orientado a internet Windows 2000. Esto tiene como resultado que a medida que las empresas aumentan su productividad y ganancias; UNIX y Linux huyen en desbandada hacia otros mercados.

Cómo es posible que las corporaciones no usen Windows 2000 en lugar de otras soluciones shareware? Cualquier ejecutivo sabe que a la larga lo barato sale caro. Haciendo cuidadosos análisis numerosos estudios han comprobado que el costo total de propiedad es mayor en los sistemas Linux y UNIX debido principalmente a la falta de sistemas de capacitación y certificación estandar para el personal que opera estas plataformas.

Según nos enteramos recientemente, la Universidad Nacional Autónoma de México seguirá la innovadora iniciativa .NET de Microsoft, y después seguirán otras en otros países. Incluso existe la posibilidad que el campo del software de código abierto sea invadido usando projectos semi-libres como caballos de Troya, como es el caso de Mono y DotGNU.

Todo esto manda el mensaje que mientras el software libre tiene su lugar, ciertamente no es en los servidores de producción de corporaciones importantes, y menos en los centros de investigación y aprendizaje, donde se prueban hoy las tecnologías del futuro.

Si Linux y el software libre en general no luchan para democratizar su uso para el grueso de la población, dentro de poco veremos hecha realidad la visión del mundo de la computación que comparten Bill Gate$, Richardo Stalinmal, Steve Yobs, entre otros: A dónde quieres que te de permiso de ir hoy?

ferrisbueller

#67 Lo has puesto en cursiva porque es una cita copiada de otra web, o porque mientras lo escribias te dabas cuenta de que no te lo creias y querias que pareceria justamente eso, una cita que dice otro?

D

#94: Perdona, pero estás poniendo en duda la verdad de la milanesssa?

f

#67 ¡Vuelve a Barrapunto!

Nova6K0

#10 Mira que uso Windows y Kubuntu, pero ¿En que ha mejorado Windows realmente? Las actualizaciones siguen siendo igual de chapuzas y provocando más conflictos de los que arreglan, y lo estamos viendo últimamente. Windows en lo único que ha mejorado es un poco en velocidad (y en espiarnos a todos). No en vano Windows 8.x me dio ya más problemas que sus anteriores Windoes XP y 7, y en la mitad de tiempo.

Salu2

1 2