Archivo

Posts Tagged ‘LINUX’

7 cosas que no echarás de menos de Windows XP

Para animarte a migrar a otro sistema operativo con el fin de soporte de Windows XP repasamos 7 aspectos que no echarás de menos de esta longeva plataforma.

windows xp

El próximo 8 de abril es la fecha que Microsoft ha fijado para finalizar el soporte de Windows XP; a partir de esta fecha, Microsoft no desarrollará más parches de seguridad para este longevo sistema operativo. Si bien es cierto que las herramientas de eliminación de malware se mantienen hasta julio de 2015, Windows XP se convertirá, en menos de un mes, en un producto sin soporte y, por tanto, “clínicamente muerto”.

Como ya comentamos la semana pasada, los usuarios debemos prepararnos para el fin de soporte de Windows XP; es decir, si seguimos usando este sistema operativo (y sigue siendo el segundo más usado actualmente) deberíamos plantearnos qué vamos a hacer y, por tanto, si vamos a dar el salto a Windows 7, Windows 8 o damos un salto algo más disruptivo hacia el mundo Linux. No hacer nada, honestamente, creo que no es una opción a seguir; la actualización desplegada por Microsoft el 8 de marzo se va a encargar de recordarnos la fecha del 8 de abril y la necesidad de migrar.

Windows XP ha estado con nosotros alrededor de 12 años, un largo periodo de tiempo que nos ha acompañado en nuestros ratos de ocio y en los de trabajo; un compañero fiel que, evidentemente, no era perfecto. En términos generales, Windows XP ha sido un buen sistema operativo pero, como cualquier producto, presentaba grandes carencias y algunos detalles que, sin duda, no echaremos de menos.

Para ir preparando la despedida de Windows XP, hoy vamos a dedicar unos minutos a mirar el proceso de migración desde la perspectiva de las ventajas que aporta migrar y, por tanto, las cosas que no echaremos de menos de Windows XP.

memoria ram - windows xp

Limitaciones de memoria RAM

Cuando Windows XP se lanzó al mercado, los requisitos de RAM de los PCs eran muy bajos. No era raro encontrar PCs con 256 MB o 512 MB de memoria RAM; por tanto, pensar en 4 GB de RAM era algo casi imposible. Sin embargo, el tiempo fue pasando y el software terminó volviéndose más exigente; un hecho que provocó que, poco a poco, fuésemos necesitando más memoria RAM para mantener los procesos de nuestro sistema sin mermar la experiencia de uso.

Ampliar la memoria RAM de un PC es bastante simple, compramos el módulo y lo instalamos en la placa base; sin embargo, en Windows XP podíamos llegar a encontrarnos un pequeño inconveniente que no todos los usuarios tenían en mente cuando ampliaban la memoria de su equipo.

¿El problema de Windows XP? Salvo que usásemos la versión profesional de 64-bits, Windows XP no era capaz de manejar más de 3 GB de memoria RAM; por tanto, aunque nuestro equipo tuviese instalados 4 GB, solamente podríamos usar 3 GB y desperdiciábamos uno por el camino. En Windows 7 es bastante habitual optar por versiones de 64-bits que sí que nos permiten trabajar con más RAM y, evidentemente, Windows 8 está pensado para manejar bastante memoria y los equipos que vemos en el mercado suelen incluir 4 GB de memoria o incluso más.

SATA - windows XP

Soporte de hardware

Otro de los problemas de hardware que encontrábamos en Windows XP era el soporte para discos duros SATA. Hoy en día los discos SATA son el estándar de mercado; sin embargo, Windows XP no soportaba esta tecnología, no incluía driver alguno para controladoras de disco SATA y esto era un problema a la hora de instalar. Hasta la llegada de Service Pack 3 en 2008 no conseguimos un soporte nativo de SATA en XP y esta ausencia era un gran problema a la hora de instalar un sistema puesto que nos obligaba a “cocinar” nuestros propios discos de instalación (con nLite, por ejemplo) o a cargar, manualmente, drivers adicionales en los pasos previos a la instalación.

Son muchos los dispositivos que actualmente se lanzan al mercado y, directamente, no tienen soporte para Windows XP. Es un fastidio que, evidentemente, se irá acrecentando conforme pasemos la barrera del fin de soporte de XP porque toda la industria en bloque le dará la espalda a este sistema operativo.

windows xp - paint

 

Paint

Aunque pueda parecer una aplicación menor, todos hemos usado alguna vez Paint. Windows nos ha ofrecido siempre una sencilla aplicación de dibujo con la que editar, de manera algo rudimentaria, imágenes en formato BMP o JPG; una aplicación espartana en funcionalidades y opciones que también se incluía en Windows XP. Debo reconocer que, durante mi época de estudiante, usé más de una vez Paint en Windows XP (edité alguna que otra gráfica de algún trabajo de clase) pero estaba a años luz de cualquier herramienta de dibujo o de editores de imágenes como Gimp o Photoshop.

Es curioso que, a pesar de lo práctico que es Paint, Microsoft apenas había invertido en evolucionar esta herramienta. Prácticamente, Paint permanecía invariante con respecto a Windows 95 y Windows 98. Tuvo que llegar Windows 7 para que Microsoft, por fin, dedicase tiempo a reformar Paint. Si pruebas la versión de Paint que se incluye en Windows 7, llegarás a la misma conclusión que llegué yo: no echarás de menos la versión de Paint de Windows XP.

blue sceen of death - windows XP

 

Errores ininteligibles

Debo reconocer que uno de los aspectos del software de Microsoft que más gracia me hace son las salidas de errores. Los productos de Microsoft, en general, tienen una manera muy particular de indicar que se ha producido un error: nos ofrecen un código de error en formato hexadecimal. Parece casi una seña de identidad de Microsoft y, por ejemplo, con el pantallazo azul nos ofrecía también información que era difícil de entender más allá de que no nos quedaba otro remedio que reiniciar nuestro sistema.

Conforme Windows ha evolucionado, los mensajes de error se han hecho algo más fáciles de entender; en Windows 8 el pantallazo azul se ha hecho algo más cercano y nos muestra un emoticono triste indicando que hay que reiniciar y perderemos nuestro trabajo. En Windows 7 el pantallazo azul sigue ofreciendo un “galimatías” a los usaurios pero, al menos, ciertos mensajes de error se han pulido un poco más.

Internet explorer barras - Windows XP

 

Problemas de seguridad

La seguridad ha sido una de las grandes carencias de Windows XP. Al ser un sistema tan longevo, ha habido mucho tiempo para explorar sus vulnerabilidades y bugs y, evidentemente, el fin de soporte dejará muchas incidencias sin resolver. Windows XP ha sido víctima de muchos ataques de malware y, como no, Internet Explorer ha contribuido mucho a ser un coladero de todo tipo de código malicioso o de barras de “ayuda”.

La función de autorun de unidades USB y unidades de disco óptico también fueron un gran problema para los usuarios; las unidades USB nacieron en pleno apogeo de Windows XP y se convirtieron en la principal vía para compartir información y, por supuesto, también para compartir malware que se ejecutaba nada más arrancar la reproducción automática del dispositivo.

Internet explorer - windows xp

 

Internet Explorer

Sí, habéis leído bien, he escrito que no echaremos de menos Internet Explorer cuando abandonemos Windows XP. Soy consciente que Internet Explorer sigue vivo y está presente tanto en Windows 7 como en Windows 8 pero, eso sí, las cosas son muy distintas.

El fin de soporte de Windows XP, al fin, pone punto y final a esas “malvadas” versiones de Internet Explorer que no seguían los estándares web y que quitaban horas de sueño a desarrolladores y diseñadores. Gracias a Internet Explorer 6, Internet Explorer 7 e Internet Explorer 8, y sus constantes “malas interpretaciones” del CSS, los diseñadores y desarrolladores de aplicaciones web tenían que trabajar siguiendo los estándares y, posteriormente, aplicar un CSS específico para Internet Explorer.

Para el usuario, seguramente, este tipo de cosas son transparentes pero los que trabajamos en proyectos de desarrollo web, en más de una ocasión, hemos sufrido a Internet Explorer: webs que se visualizaban correctamente en Mozilla Firefox y Google Chrome pero, por el contrario, presentaban errores al verse con Internet Explorer.

Age of Empires II HD- Motivos para esperar su relanzamiento Star Wars

DirectX 9

Microsoft desarrolló DirectX como un conjunto de APIs que permitiesen a los desarrolladores realizar tareas complejas de procesamiento de vídeo sobre sistemas Windows. La mayoría de juegos para PC se apoyan en DirectX para el aspecto gráfico y, al final se convirtió en un componente clave para los que jugábamos a juegos en el PC.

¿El problema? Los juegos actuales se apoyan sobre DirectX 10 y DirectX 11, gracias a estosframeworks podemos experimentar mayor calidad gráfica y mejor desempeño; sin embargo, Windows XP se quedó estancado en DirectX 9 y eso, sin duda, es un gran hándicap para los que queremos disfrutar de buenos juegos.

visto en bitelia

¿Quieres migrar de Windows XP a Linux?, estas distros son tus mejores opciones

Estás decidido, no vas a saltar de Windows a Windows, sino que quieres probar algo nuevo, convencido de migrar a Linux y darle una oportunidad a los pingüinos, te recomendamos tres distribuciones que esperemos no te defrauden.

migrar de windows xp a linux

Como venimos repitiendo incansablemente a modo disco rallado o vídeo viral de YouTube, el fin del soporte para Windows XP es inminente, y estamos tratando de darte todas las opciones posibles para que actualices a un sistema moderno, y con seguridad. Hace algunos días les dábamos 5 razones para migrar de Windows XP a Linux, si eres uno de los convencidos, probablemente te estés preguntando que distribución bajar, y cual es la mejor para ti y tu equipo. En Bitelia intentaremos responder esas preguntas.

Esto no va a ser una lista muy larga, pues he elegido solo tres distribuciones, pero tienen su estilo propio y encajan dentro del perfil del posible usuario que viene de XP. Los principales criterios para elegir una distro en este caso, serían: que el sistema proporcione la transición más sencilla posible, fácil de instalar, fácil de usar, con comunidad grande y amplio soporte, y compatibles con equipos de recursos limitados (como los viejos que viniesen con XP o Vista de fábrica). Por último, solo he elegido distribuciones que he probado personalmente, no recomiendo cosas que nunca he usado, así que son libres de dejar sus propias recomendaciones en los comentarios para guiar a los demás lectores, porque sabemos que distros sobran.

Lubuntu

migrar de windows xp a linux lubuntu

Lubuntu es el sabor de la popular distribución Ubuntu, y usa el entorno de escritorio ligero LXDE en lugar de Unity, LXDE es muy, muy ligero, y su interfaz es bastante sencilla y con una curva de aprendizaje muy baja. Lubuntu puede ser instalado es ordenadores como poca memoria RAM, chipsets viejos (i586), y poco espacio en disco, como en el caso de las netbooks. Mi experiencia con Lubuntu siempre ha sido buena, y una vez instalé está distro en una netbook con un procesador de menos de 1ghz y apenas 512mb de memoria RAM, y funcionaba fluidamente, por lo que si tienes una máquina un poquito mejor (que es probable), tienes recursos de sobra.

Lubuntu incluye software preinstalado que se caracteriza por ser igual de ligero y rápido, para que todo el sistema se enfoque en ser lo más eficiente y liviano posible. Y lo mejor de todo, obtienes todo el soporte de la enorme comunidad de sistemas operativos basados en Ubuntu, y su gigante selección de repositorios.

elementary OS

migrar de windows xp a linux elementary os

elementary OS es mi distro favorita, quien me lea hace más de dos días y medio sabe que soy fan. Pero dejando de un lado mis gustos, y tratando de ser lo más objetiva posible, elementary OS es una gran opción para cualquier ordenador y cualquier usuario. No es tan ligera como las otras dos opciones que menciono, ya que Pantheon (su entorno de escritorio) es un poco más exigente. Aún así la distro se mueve muy bien en ordenadores modestos.

En mi experiencia elementary ha funcionado bien hasta en une netbook con un procesador Intel Atom de 1.3ghz, y 1GB de RAM (menos de eso vas a sufrir). La interfaz es hermosa, y aunque bastante diferente a lo que están acostumbrados los usuarios de Windows, tiene una curva de aprendizaje pequeña, y un funcionamiento de casi 10 puntos, salvo que tu hardware se niegue a el amor.

Manjaro Linux (XFCE)

manjaro desktop

Manjaro es una distro basada en Arch Linux, que ofrece una instalación amigable. Manjaro tiene varias versiones, y una de ellas utiliza XFCE como entorno de escritorio, el cual es ligero y sencillo. La distro incluye instalados por defectos todos los programas básicos para el usuario promedio, y hasta Steam.

Manjaro sigue un modelo de desarrollo rolling release, así que recibe actualizaciones tan pronto como aparecen. Con muchas aplicaciones abiertas consume muy pocos recursos, menos que elementary pero más que Lubuntu, si vamos a comparar. Es una distro robusta, y aunque es un poco más difícil de instalar que las dos anteriores, puede que sea la que cause menos choque a la hora de cambiar de XP a Linux. Si quieres saber más sobre Manjaro puedes leer la reseña realizada por Bitelia.

visto en: bitelia

5 Razones para migrar de Windows XP a Linux

18 marzo 2014 1 comentario

El final se acerca. Si has estado al pendiente de la actualidad tecnológica, ya debes saber que el soporte oficial para el ya anciano Windows XP se termina el 8 de Abril.

ddsnet

Es impresionante como un sistema operativo que tiene más de 12 años de creado aún mantenga una cuota de mercado tan elevada. Microsoft ya ha lanzado 3 versiones (y media) diferentes de Windows posteriores a XP, y apenas hace poco Windows 7 superó a XP en los ordenadores personales.Windows XP es usado hasta la fecha en todos lados, en millones de ordenadores, incluyendo sistemas criticos, lo que significa un verdadero problema de seguridad para todas las empresas e individuos que no se molestaron en prever actualizar a un sistema moderno en más de una década. Microsoft lo sabe y por eso les tira un último jamón ofreciendo soporte antimalware para Windows XP hasta 2015.Esta no es ni de lejos una razón para que esperes a 2015 para actualizar tu sistema, Microsoft quiere que te mudes a Windows 8 (aunque la mayoría va a apostar seguro por Windows 7). Pero esas no son las únicas alternativas, en Bitelia ya te contamos que podías hacer para enfrentar el final de XP, una de las opciones es migrar a Linux, y como nunca es mal momento para promover el software libre, ahora de damos 5 razones por las cuales esta es una de las mejores opciones.

1. Es gratis

Windows no es gratis, no importa cuantos Windows uE piratas te bajaste en tu vida, sigue siendo ilegal instalar el software de Microsoft sin pagar una licencia de uso, porque eso es lo que compras, una licencia que te permite usar el sistema operativo, un permisito. En sus ciento setenta y cinco mil posibles versiones, Windows 7 puede costar desde poco más de 100$ hasta más de 300$. Windows 8 es más barato, va desde una versión para estudiantes por 69.99$, hasta las estándar por 119.99$. Aunque Microsoft está pensando en bajar más los precios para competir con iniciativas como las de Apple de ofrecer OS X de manera gratuita.El precio de cualquier distro Linux: 0. Un ahorro del 100%. Para todo lo demás existe MasterCard. Si bien, no tiene nada de malo pagar por buen software, y la verdad opino que Windows 7 y 8 son buenos, no todo el mundo tiene cien dolares a la mano para pagar por una licencia, cien dolares que puedes gastar en hacer un upgrade de tu hardware.

2. Es fácil

En la prehistoria, o como se le conoce por tu barrio: 2004; se quedaron los días de instalaciones de Linux complicadas, de tener que configurar el driver X, de montar tu mismo un entorno gráfico, y demás cosas que espantan en 5 segundos a un “non-techie”. La mayoría de las distros actuales, utilizandiscos de instalación tan automatizados y amigables que hay que ser un analfabeta tecnológico para no entenderlos.Además casi todas tienen un Live CD que te deja probar el sistema antes de decidirte a instalarlo, y si te decides puedes seguir jugando con el, mientras se instala, una maravilla que te encuentras en Windows jamás. “¿Desea instalar Ubuntu junto a Windows XP o borrar todo?”, esa es la pregunta más complicada que te vas a encontrar.wellsie82

3. Es seguro

Quedarte en Windows XP pensando que eso de el soporte no te afecta, que ya tu tienes instalado todo lo que necesitas y que los “hackers” de la Internet no tendrían ningún interés en entrar a tu ordenador,es estúpido. Pronto verás tu mundo derrumbarse, poco a poco el software que usas se quedará también sin soporte, el mismo Google dijo que dejara de ofrecer actualizaciones de Chrome para XP poco después de la muerte del sistema.Te vas a encontrar usando un sistema completamente vulnerable a ataques, ten por seguro que la gente mala se va a aprovechar de esto, y a sabiendas de que mucha gente ni está pendiente de actualizar su sistema, van a atacar con más fuerzas que nunca, y toda la información que tienes en tu ordenador va a estar a merced del ejercito de malware que viene en camino. Winter is comming, y tuestás sentado sobre un cadáver digital, mejor que no hagas transferencias bancarias si vas a seguir casado con XP, o de cajón desconecta el cable de red para siempre.Linux siempre ha sido más seguro, y las amenazas son una minúscula fracción de las que atacan a Windows. Tienes el soporte de una comunidad y desarrollo abiertos que por años han probado ser una roca, y por eso las grandes supercomputadoras del mundo y los servidores, usan Linux en su enorme mayoría.

4. Es ligero

Las probabilidades son de que si a estás alturas aún usas Windows XP, tengas un ordenador viejo o una máquina con pocos recursos. En esos casos actualizar a algo como Windows 8 no es ni siquiera una opción, si bien los requerimientos han bajado, y tanto Windows 7 como 8 no son la bestia come recursos apocalíptica que era Windows Vista, si tienes un procesador de un solo nucleo con 1GB de Ram, nunca vas a obtener un gran rendimiento con estos sistema.Distribuciones de Linux hay para tirar al techo, y muchas están diseñadas específicamente paraordenadores de pocos recursos, con entornos ligeros y rápidos, aplicaciones que consumen poca memoria y que funcionan perfectamente como alternativas al software que usabas a diario.

5. Es algo nuevo

Hey, tal vez un lavado de cara es lo que le hacia falta a tu ordenador. Si nunca has usado Linux te vas a encontrar con una nueva experiencia tecnológica que puede resultarte más que agradable, en especial si pasas mucho tiempo frente al ordenador y te fatigas. A todos nos gustan las cosas nuevas y brillantes, elige una distro de Linux, buena y bonita y disfruta de una nueva aventura con tu PC.Linux ya no es esa cosa “solo para nerds” de antes, ya hasta tenemos juegos y drivers de vídeo que no son una basura rompe gónadas. Hay distribuciones amigables que puedes usar como tu primer Linux y enamorarte por completo.Todas estás razones ni siquiera incluyen nada sobre el movimiento filosófico de Stallman, de la libertad del usuario que implica usar software de código abierto, o de los gatitos que alguien adopta cada vez que se instala un Linux. Solo son razones prácticas que pueden hacer que entres por primera vez a un mundo nuevo lleno de posibilidades, y si te gusta te quedes.

visto en:  bitelia

¿Cuánto espacio para almacenamiento real tiene tu smartphone de 16GB?

13 febrero 2014 Deja un comentario

¿Cuánto espacio para almacenamiento real tiene tu smartphone de 16GB?

De verdad tienen 16GB de memoria interna ese móvil inteligente que acabas de comprar? ¿Y entonces por qué, siendo que está nuevo y de fábrica, tiene sólo 12 o incluso 9 GB disponibles? Un sitio especializado hizo una comparativa del almacenamiento de los smartphones de 16GB y los resultados son decepcionantes.

La pregunta  puede llegar a recibir respuestas a priori que indicarán que el resultado está en la misma frase que la incógnita, pero la experiencia con los productos de la informática nos ha revelado que las características no son nunca tan específicas y redondas como nos las venden. Un ejemplo clásico es el de los discos duros, donde las capacidades de almacenamiento se expresan en valores diferentes dentro y fuera del ordenador. Si te pasó alguna vez tener un disco vendido de 120 GB que en realidad tuviese 111,758 GB, sabrás de lo que estoy hablando. El caso de los smartphones modernos  es diferente, ya que parece haber pequeñas trampitas que nos hacen los fabricantes. El sitio Which? ha revelado recientemente una imagen comparativa entre el espacio de almacenamiento anunciado y el real de las 8 marcas más vendidas de smartphones.

¿Cuánto espacio para almacenamiento real tiene tu smartphone de 16GB?

Comparativa del almacenamiento disponible de fábrica en los smartphones más vendidos

Hace no mucho se reveló algo que espantó a muchos usuarios avanzados de teléfonos inteligentes, y especialmente a los que habían sucumbido a los irreprochables encantos técnicos del Samsung Galaxy S4. El teléfono no tenía 16 GB de almacenamiento como se promocionaba, sino que luego de todos los usos internos y ocultos del espacio (bloatware, aplicaciones pre instaladas, pieles, etc.), el móvil llegaba a las manos de los usuarios con tan solo 8.58 GB, lo que es apenas el 54% de lo promocionado. Esto alertó sobre la problemática y Which? se puso a comparar diferentes modelos de smartphone presuntamente de 16 GB. No hace falta reproducir los datos que ves en la imagen anterior con total claridad, pues se ve que mientras que Samsung Galaxy S4 ofrece 8.56GB en vez de los 16GB prometidos, Apple iPhone 5C “sólo” cercena 3.4GB, quedando en un almacenamiento final de 12.6GB.

¿Cuánto espacio para almacenamiento real tiene tu smartphone de 16GB?

Comparativa del almacenamiento disponible de fábrica en los smartphones más vendidos

La pelea es pareja en el resto de los móviles, con el LG G2 como el seguidor del Samsung Galaxy en cuanto a consumo de fábrica de espacio con 10.37 GB disponibles al usuario. Es de notar también que los tres primeros teléfonos inteligentes en la comparación (iPhone 5C, Google Nexus 5 e iPhone 5S) no tienen ranura de expansión para aumentar el espacio de almacenamiento, mientras que elSamsung Galaxy puede llegar a usar memorias de 64GB sin ningún problema, aunque no sea igual de útil y funcional que una verdadera memoria interna. Tal parece que al dar esta solución parcial, la propia gente de Samsung está al tanto de la trampa que ellos y los otros fabricantes les hacen a los usuarios, ya que no parece muy justo que promocionen móviles con 16 GB de memoria interna cuando en realidad tienen 12, 11, 10 u 8.6.

fuente: neoteo

El segundo sistema operativo oculto de cada smartphone

18 noviembre 2013 Deja un comentario

El segundo sistema operativo oculto de cada smartphone es el sistema operativo de banda base que recibe instrucciones desde estaciones de base, ahora accesibles al público particular. Debido a las medidas de seguridad desactualizadas del GSM, esta nueva situación genera escenarios muy peligrosos para la privacidad y seguridad de los usuarios.

Me animaría a decir que de 10 usuarios de smartphones, sólo 1 sabe que los móviles inteligentes tienen más de un sistema operativo. Debajo del que todos reconocemos con su nombre de marca (Android, iOS, PalmOS, etc.), hay uno muy pequeño que funciona administrando todo lo relacionado a la radiofrecuencia. Este sistema operativo de tiempo real (RTOS) se encuentra ubicado en el firmware y corre a través del procesador de banda base. Como si fuera poco, estos RTOS son de software propietario y la documentación que hay sobre los mismos es bastante pobre. El artículo original da una ejemplo, contando que el RTOS dentro de los procesadores de banda de base Qualcomm son llamados AMSS y están construidos sobre el kernel propietario REX que corre sobre un ARMv5, con 69 tareas concurrentes y administrando desde el GPS hasta el USB.

El segundo sistema operativo oculto de cada smartphone

Al darnos de frente con estos datos, vemos que los procesadores de banda base corren con software patentando y cerrado, que además son muy poco conocidos por los usuarios involuntarios de los mismos. Tampoco hay una molestia por parte de los fabricantes de poner en conocimiento estos sistemas operativos de banda base, con lo que no se pueden hacer muchas revisiones al respecto. Considerando la importancia que tienen estos SO para las telecomunicaciones modernas, uno podría pensar que son muy seguros, pero lamentablemente nos estaríamos equivocando. Es que estos sistemas primigenios que corremos en un segundo plano son muy poco entendidos, pobremente documentados, de raíz propietaria y además fueron diseñados en los 80s. Esto quiere decir que la inseguridad de los RTOS que se utilizan para los móviles deviene no tanto del error, sino del diseño y de la negligencia posterior. Por ejemplo, el código base fue escrito a principios de los 90s, y no hay en ellos fuertes procesos de mitigación de exploits. Pero esto no es lo peor.

Gracias a la estructura de trabajo con la que funcionan, cada procesador de banda confía ciegamente en todos los datos que recibe desde una estación base (por ejemplo, desde una antena de telefonía móvil). Como nada se comprueba en el proceso de recepción por aire, todas las ordenes que le llegan al móvil se validan automáticamente. Para cerrar esta especie de introducción a los sistemas de banda base de los móviles, el procesador de banda de base es por lo general el procesador maestro, mientras que el procesador de aplicaciones (sobre el que se ejecuta el sistema operativo móvil) es el esclavo. Así que repasando tenemos un sistema operativo maestro que tiene de esclavo a otro, corriendo sobre un procesador ARM, sin ningún tipo de mitigación de exploits, que automáticamente confía en cada instrucción que le mandan desde la estación de base a la que está conectado. Desde nuestra perspectiva, todo un problema.

El enemigo en nuestro bolsillo

El investigador en seguridad Ralf-Philipp Weinmann de la Universidad de Luxemburgo trabajó sobre las problemáticas de los RTOS en la actualidad e identifico decenas de exploits y bugs que podrían darle acceso a nuestros móviles a extraños a cargo de una estación de base. Simplemente con enviarnos una instrucción vía aire que el móvil validará y ejecutará sin ningún tipo de pruritos electrónicos, los maliciosos harían colapsar el teléfono o, peor, ejecutar algún código dentro del mismo, que traspase la frontera entre los dos sistemas operativos accediendo a nuestra información. Si bien ese proceso puede ser tedioso y requeriría de gran trabajo en relación a otros procesos de infiltración, alguien que conozca el conjunto de comandos Hayes podría activar la respuesta automática en nuestro móvil. A la vez también hay otros códigos de infiltración más accesibles, como mensajes de 73 bytes que pueden lograr una ejecución remota de un código dentro del teléfono objetivo.

El segundo sistema operativo oculto de cada smartphone

Sabiendo esto e imaginando escenarios, la indulgencia tecnológica puede hacer creer que controlar una estación de base en torres de celulares no es algo tan fácil de lograr, ya que el acceso es restringido por parte de las grandes operadoras y que quienes acceden tienen que pasar por entrenamientos y pruebas de aptitud, entre otras muestras de responsabilidad y habilidad. Como ya adivinas, esto no es tan así, pues además de la connivencia oculta entre gobiernos y compañías telefónicas que puede haber (ver NSA), a nivel menos conspirativo las estaciones de base se están haciendo cada vez más accesibles para las personas comunes, a través de paquetes de estaciones de base de código abierto que se pueden conseguir en sitios tan populares como eBay. Estas estaciones de base pequeñas y controladas por un particular también comparten la posibilidad de poderse apuntar hacia móviles. En cuanto esta estación de base caiga en las manos incorrectas y en una zona lo suficientemente populosa, preparémonos para estar a nada de que remotamente activen cámaras, micrófonos, acepten o realicen llamadas o envíen SMS, además de emplazar rootkits y otros exploits autoejecutables.

El segundo sistema operativo oculto de cada smartphone

Las alternativas

La complejidad de este asunto ha hecho que escape a la gran cantidad de usuarios, ya que ni siquiera los expertos se ocupan lo necesario para tratar de poner en conocimiento este peligro latente y hacer que las compañías telefónicas y los fabricantes den explicaciones o actualicen los sistemas operativos de banda de base. Ante lo intrincado que son los RTOS  (la lista de estándares y patentes es enorme) como para que los desarrolladores se pongan a escribir sus propias implementaciones basadas en diferentes regiones, modelos, etc., la opción que quedaba era que las telefónicas y los fabricantes utilizasen otro tipo de software que sea más seguro, tenga más calidad, sea más comprensible y que no sea totalmente propietario. Algunos fabricantes están trabajando en ello, pero en tanto el GSM no se actualice, la viabilidad delos ataques se mantendrá.

Vivimos en una época donde la intimidad se convirtió en extimidad, pero donde los datos personales todavía cotizan muy alto y esta situación no debería serle indiferente a ninguno de los miles de millones de usuarios de móviles.

fuente: neoteo

La Estación Espacial Internacional migra a GNU/Linux para evitar los virus

18 noviembre 2013 Deja un comentario

Los astronautas de la Estación Espacial Internacional descubrían recientemente que un virus informático se había colado en la estación. Concretamente, en la red local donde trabajan y están conectados sus portátiles, algunos de los cuales fueron infectados. Quien haya visto la película ‘Gravity’ puede imaginar su angustia pues, si en tierra firme un virus ya asusta, los nervios se multiplican a 400 km del suelo y dependiendo la supervivencia del buen funcionamiento de los ordenadores.

La red informática de la Estación Internacional está separada de Internet, así que el virus no pudo venir del exterior sino que entró por algún dispositivo, posiblemente un USB, que trajo alguien de la Tierra. Eugene Kaspersky, creador de la empresa de antivirus que lleva su nombre, aseguró en una charla, la semana pasada en Australia, que “los científicos de vez en cuando llegan a la estación espacial con USBs infectados, no bromeo. Hablé con algunos chicos rusos de la estación y me dijeron que cada cierto tiempo tienen una epidemia vírica“.

El primer virus conocido que infectó la Estación Espacial Internacional, en 2008, fue W32.Gammima.AG worm, un virus poco peligroso dirigido a usuarios de juegos en línea, a los que robaba nombres de usuario y contraseñas. No han trascendido el nombre ni la peligrosidad de este último, descubierto a finales de la pasada primavera según Kaspersky, pero posiblemente sea el último de verdad: la Estación Espacial Internacional está migrando su red y ordenadores de los investigadores (una docena de portátiles) alsistema operativo libre GNU/Linux.

Ahora mismo los astronautas están recibiendo lecciones sobrecómo trabajar y crear programas para Linux. De esta forma se evitarán las infecciones cada dos por tres, debidas en buena parte a que los ordenadores de la estación usaban el sistema operativo Windows, el preferido por los diseminadores de código malicioso. No es que no existan virus para Linux, pero el porcentaje es infinitamente menor. A partir de ahora, si se descubre un nuevo virus en la Estación Espacial será muy posiblemente porque alguien lo haya creado y “colado” intencionadamente, no a causa del despiste de un científico.

Kaspersky hizo estas revelaciones en el transcurso de una charla en Camberra sobre cibercrimen, espionaje y seguridad informática de los sistemas críticos, llamados SCADA (Supervisión, Control y Adquisición de Datos), que puede referirse tanto a grandes empresas como infraestructuras -ferrocarriles, centrales eléctricas, nucleares- y otros sistemas críticos.

Kaspersky puso como principal ejemplo el gusano informático Stuxnet, “un prototipo funcional y aterrador de un arma cibernética que conducirá a la creación de una nueva carrera armamentística mundial”. Según “un amigo de un amigo” de Kaspersky, Stuxnet se habría detectado recientemente en una planta nuclear rusa. Se cree que Israel creó este virus para infiltrarse en plantas nucleares de Irán y destruir sus sistemas informáticos. Saltó a la luz pública en 2010 y desde entonces ha sido detectado en diversas centrales nucleares, no sólo iraníes.

Al hablar Kaspersky de Stuxnet y la Estación Internacional en la misma charla, algunos periodistas creyeron que el virus de la estación había sido Stuxnet y cundió la alarma, que fue rápidamente sofocada con una aclaración de Kaspersky.

El romanticismo ya no existe

Hoy en día los virus informáticos los crean hackers mercenarios vendidos al “lado oscuro” o listos que compran un “kit” para hacer virus como churros y así robar el dinero o el ancho de banda a la gente. Pero hace años, “cuando los hackers eran hackers y escribían sus propios “drivers””, frase mítica de Linus Torvalds (autor del sistema operativo Linux), los virus eran obra de programadores excelsos cuyo interés estaba más en la investigación y la vida artificial que en molestar, robar o aprovecharse de alguien.

En aquellos tiempos, invierno de 1996, un escritor de virus español, Mr. Sandman, co-fundador del grupo 29A, que llegó a ser considerado el mejor del mundo, tuvo una genial idea: estaba a punto de lanzarse la sonda Huygens, que debía aterrizar en Titán, la luna de Saturno, en octubre de 1997 y llevaba en su interior un Compact Disc. La Agencia Espacial Europea había abierto una sitio web donde quien quisiera podía dejar su nombre y un pequeño texto para incluir en el CD. Mr. Sandman explicó su idea en el primer número de la revista 29A: “Como el espacio para escribir este texto es suficientemente grande como para contener un virus, he decidido mandar uno, por tanto será el primer virus del mundo que llega a otro planeta”.

No se sabe si finalmente Mr. Sandman mandó su virus. Pero muy posiblemente sus corazón palpitaría también con la idea de que una creación suya llegase a la Estación Espacial Internacional. Por desgracia, los viejos escritores de virus, científicos más que criminales, exentos de maldad e interés crematístico, están casi o totalmente extinguidos. El romanticismo ya no existe en el mundo de los virus.

Fuente: rebelion

¿Quién usa GNU/Linux?

5 noviembre 2013 Deja un comentario

Unique Wallpaper

Interesante artículo que me encuentro en humanOS donde se recopilan una serie de informaciones que nos dicen en cuales rincones del mundo se usa GNU/Linux. Confieso que algunos casos no los conocía.

Me sorprende además que sea Cuba uno de los principales países interesados en las distribuciones de GNU/Linux. o_O

Veamos sólo una pequeña pero significativa muestra del alcance que tiene Linux hoy en día con algunos ejemplos de su uso:

  1. Sistemas de control de tráfico: Cada vez más ciudades del mundo confían en GNU/Linux para administrar sus servicios de control de tráfico urbano. Nueva York, San Francisco y Los Angeles son algunas de ellas.
  2. La flota de submarinos nucleares de la Marina Estadounidense: Los submarinos nucleares estadounidenses, de los más avanzados y letales del mundo, usan una distro basada en Red Hat para controlar todos los sistemas de a bordo. ¿Se imaginan una BSOD a 500 metros de profundidad? Yo también me hubiese decidido por Linux…
  3. El CERN: La máquina más grande y costosa jamás construida por el hombre, el Large Hadron Collider, usa GNU/Linux, al igual que todas las dependencias del CERN. Los resultados de los experimentos se comparten con la comunidad científica utilizando una red distribuida que también está basada en GNU/Linux. El CERN es el lugar de nacimiento y uso principal de Scientific Linux, una distribución basada en Red Hat para los hombres y mujeres de ciencia.
  4. El tren bala japonés: El sistema ferroviario más puntual del mundo confía en GNU/Linux para llegar siempre a tiempo. Entre Tokyo y Osaka, las dos ciudades más grandes de Japón, circula un tren cada 3 minutos en cada dirección. Cada año, Shinkansen (nombre japonés del tren bala) transporta más de 151 millones de pasajeros por año, a una velocidad máxima de 320 km/h.
  5. Las bolsas de valores de Nueva York y Londres: La NYSE (New York Stock Exchange) es la bolsa más activa del planeta, en ella se venden y compran más de 150 billones de dólares en acciones y bonos todos los días. Su infraestructura informática corre bajo Red Hat Enterprise Linux. La LSE (London Stock Exchange) siguió los pasos de la NYSE utilizando Novell SUSE Enterprise Linux después que su sistema anterior basado en Windows Server 2003 y .Net empezó a colapsar continuamente al no poder soportar la enorme cantidad de transacciones simultáneas que se realizaban en él. Los resultados de la migración fueron un sistema estable y mucho más rápido que el de todos sus competidores.
  6. La Administración Federal de Aviación de EEUU: La FAA, por sus siglas en inglés, es la encargada de monitorear no sólo el tráfico aéreo estadounidense, sino también todo el resto de las actividades de apoyo y administración aeronaútica. En 2006, realizaron una migración completa a Red Hat Enterprise Linux.
  7. Amazon: La tienda online más grande del mundo no sólo usa GNU/Linux para administrar sus operaciones, sino que han desarrollado su propia distro, Amazon Linux, basada en Red Hat Enterprise Linux. Amazon además se ha vuelto líder mundial en el campo de la computación en la nube, con su plataforma Amazon Elastic Compute Cloud (Amazon EC2) que utiliza por debajo virtualización Xen basada en Linux.
  8. Google: Otro gigante de la red que ha desarrollado su propia distro, Goobuntu , que es más que nada un skin que se aplica sobre la última versión LTS de Ubuntu. Google utiliza GNU/Linux tanto en sus terminales como en sus servidores. Estos últimos corren una versión especialmente modificada y optimizada para su motor de búsqueda y el resto de los servicios que ofrece la compañía.
  9. Facebook: Facebook confía los datos de sus más de 1.000 millones de usuarios a servidores que corren bajo una versión modificada de CentOS 5.2. Lo (no tan) raro es que todo su hardware (Open Compute Platform) lo certifica bajo los estándares de Red Hat.
  10. Twitter: Twitter es miembro de la Fundación Linux, sus decenas de miles de servidores corren Linux y otras tantas tecnologías libres que ellos aprecian por la capacidad de poderlas modificar a su antojo para adaptarlas mejor a sus necesidades.
  11. Virgin America: La aerolínea de bajo costo más popular de norteamérica usa una versión adaptada de Red Hat y Fedora para sus sistemas de entretenimiento a bordo.
  12. Toyota: Toyota ha sido una de las últimas compañías en convertirse en Gold Members de la Fundación Linux, demostrando todo su apoyo a la comunidad de software libre y abierto. Los nuevos modelos de Toyota utilizan GNU/Linux para administrar sus sistemas de entretenimiento e información. Los sistemas administrativos y las redes corporativas también confían en GNU/Linux para funcionar.
  13. Drones: El ejército de Estados Unidos ha dotado a una serie de vehículos aéreos no tripulados como el MQ – 1 Predator con GNU/Linux. El motivo: El sistema con el que contaban originalmente (Windows XP) falló por un virus en un MQ-9 Reaper por lo cual se comenzó la migración de varios de estos drones. El Predator es utilizado por la Fuerza Aérea de Estados Unidos, la Real Fuerza Aérea de Inglaterra y la Aeronáutica Militar de Italia. Si bien es para sobrevolar puntos estratégicos, es posible incorporarle dos misiles Hellfire, haciendo de éste avión no tripulado una arma letal.
  14. Dispositivos móviles: Puede que lo llevemos en nuestro teléfono o tabletas. Para estos hay un claro dominador en esta área: Android. Basado en el núcleo Linux, creado por Android Inc. y luego comprado en el 2005 por Google se ha convertido en uno de los sistemas operativos para móviles más importantes actualmente. Dispositivos de todas las gamas como Samsung Galaxy, Sony Xperia, HTC, Coby Kyros y muchos más utilizan el sistema operativo desarrollado por Google y la Open Handset Alliance resultando en una variada gama de aparatos y gadgets.
  15. El FBI: El FBI migró a Linux en 2002 por ser un sistema más seguro y con capacidad de manejar gran cantidad de datos, además también usa Linux porque es mas fácil espiar otras computadoras desde este sistema operativo y administrar redes de información confidencial.
  16. Wikipedia: La Wikimedia Foundation siempre ha tenido sus servidores corriendo sistemas operativos basados en Gnu/Linux, pero en 2008 sus servidores pasaron de ser administrados por RedHat y Fedora, a ser administrados por sistemas Ubuntu Server.
  17. El 91% de las supercomputadoras del mundo: De las 500 computadoras más potentes del mundo 455 usan sistemas operativos de la familia GNU/Linux.
  18. La Casa Blanca: Después de un intento de ataque en 2012 por parte de equipos infectados en todo el mundo con el gusano Code Red, el sitio web de la Casa Blanca fue movido hacia un hospedaje con mejor protección contra ataques DDoS y de paso aprovecharon para migrar de su sistema operativo anterior Solaris hacia Red Hat Enterprise Linux.
  19. Bing (de Microsoft): Es raro, pero es verdad, el buscador Bing tiene sus servidores corriendo en Linux. Convéncete por ti mismo: http://toolbar.netcraft.com/site_report?url=http://www.bing.com
  20. Varios países utilizan GNU/Linux en la administración pública y en el sector empresarial: A nivel mundial, el interés por Linux es mayor en la India, Cuba y Rusia, República Checa e Indonesia. El primer país occidental que sale en esta encuesta es Alemania en el décimo puesto.  En los Estados Unidos, el mayor nivel de popularidad es en el estado de California y esto es comprensible, teniendo en cuenta que es el hogar de Silicon Valley, donde radican los grandes emporios de Internet y la industria del software en general. Veamos en qué países son más populares las 8 distribuciones más comunes:
    Los países con mayor interés en Ubuntu son:
    1. Italia
    2. Cuba
    3. Indonesia
    4. Noruega
    5. República Checa
    Los países con mayor interés en OpenSUSE son:
    1. Rusia
    2. República Checa
    3. Moldavia
    4. Alemania
    5. Indonesia
    Los países con mayor interés en Fedora son:
    1. Sri Lanka
    2. Bangladés
    3. India
    4. Nepal
    5. Zimbabwe
    Los países con mayor interés en Debian son:
    1. Cuba
    2. República Checa
    3. Alemania
    4. Bielorrusia
    5. Rusia
    Los países con mayor interés en Red Hat son:
    1. Bangladés
    2. Nepal
    3. Sri Lanka
    4. India
    5. Cuba
    Los países con mayor interés en Mandriva son:
    1. Rusia
    2. República Checa
    3. Polonia
    4. Francia
    5. Indonesia
    Los países con mayor interés en Slackware son:
    1. Bulgaria
    2. Indonesia
    3. Brasil
    4. Rusia
    5. Polonia
    Los países con mayor interés en Gentoo son:
    1. Rusia
    2. República Checa
    3. Bielorrusia
    4. Moldavia
    5. Estonia

FUENTE: DesdeLinux

Ubuntu y Canonical descubren lo que pasa cuando ignoras a la comunidad del software libre

15 octubre 2013 Deja un comentario

ubuntu-edge-3

Es posible que desde fuera el mundo del software libre parezca un mundo muy bonito, en el que personas con intereses comunes se juntan las manos y programan grandes creaciones con música góspel de fondo. La realidad es muy diferente, ya que es en la comunidad de código libre donde se pueden encontrar algunas de las peleas mas brutales que ha visto la red en su existencia. La mayoría de estas riñas se producen por la diferencia de opinión sobre hacia dónde debería ir el proyecto en el futuro. ¿Adoptamos KDE o Gnome? ¿Desarrollamos nuestro instalador o usamos uno y lo modificamos? ¿Cambiamos el servidor gráfico a riesgo de hacerlo incompatible con los drivers?

Si hay un proyecto que ha entrado en polémica estos últimos años, ese ha sido la distribución Linux Ubuntu. Montada en el gran éxito que aún disfruta, Canonical (la compañía detrás de esta distribución) ha tomado desde su nacimiento decisiones muy polémicas que le han ganado la enemistad de una parte importante de los desarrolladores de código libre y de otros proyectos. Desde la decisión de facilitar la instalación de códecs y programas privativos hasta la apuesta por su propio entorno de escritorio, Unity, todas estas decisiones se han ido aceptando con el tiempo por una sencilla razón: no afectan demasiado al resto de distribuciones. Si Canonical quiere gastar su dinero en desarrollar un escritorio propio en vez de usar los ya disponibles, está en todo su derecho de hacerlo.

ubuntu13-04

El problema llega cuando Canonical se convierte en la compañía relacionada con Linux mas importante del escritorio, y sus decisiones empiezan a afectar a otros proyectos. Es entonces cuando queda claro que la compañía no tiene ningún interés en seguir el esquema de darle poder a la comunidad que otras distribuciones han seguido. Siempre se ha dicho que Canonical quiere ser la Apple de Linux, en el sentido de ofrecer una experiencia para todos los usuarios, pero este símil está llegando también a otros aspectos, como el síndrome “Not invented here” (“no ha sido inventado aquí”, referido a una compañía que rechaza estándares y código ajeno).

Así, cuando Canonical anunció al mundo que iba a crear su propio servidor gráfico, Mir, que no sería compatible con el que el resto de la comunidad ya estaba desarrollando, Wayland, nadie se sorprendió. El resultado es que los fabricantes de tarjetas gráficas tendrían que elegir a qué servidor dar soporte, ya que darlo a los dos sería posible pero demasiado costoso. Y nadie duda de que, gracias a su éxito y a sus contactos con los fabricantes, la opción ganadora será la de Ubuntu. De esta manera, Canonical ha hecho mucho daño a un proyecto con mucha gente detrás como Wayland, y a juzgar por las dudosas razones que dio en su momento (muchas de ellas desmontadas por la gente de Wayland), todo apunta a que Mir solo existe porque Canonical quería hacer las cosas a su manera.

La consecuencia directa de todos estos actos es que Canonical está sola en el mundo Linux. Los creadores prefieren trabajar en proyectos donde su voz se tenga en cuenta, y cada vez va quedando mas claro que Ubuntu no es ese proyecto. Aunque puede que Canonical esté descubriendo ahora lo que eso conlleva, sobre todo ahora que estos problemas van mas allá de la comunidad libre, ya que Intel ha anunciado que no ofrecerá soporte oficial a Mir.

ubuntu-moviles-02

A esto se le suma el anuncio de que Ubuntu 13.10, previsto para este mes, finalmente no contará con Mir como estaba planeado. La compañía cita problemas con drivers para retrasar el lanzamiento de su servidor gráfico, algo que podría haberse solucionado si hubiese contado no solo con el apoyo de los fabricantes sino también con el de la comunidad. Por el momento, el estreno de Mir se va para 14.04, que debería ser una versión estable y por tanto necesita mas trabajo. No solo eso, sino que Ubuntu Touch también está consumiendo una buena parte de su atención.

Al depender solo de sus propios trabajadores, Canonical se ha creado su propia burbuja que no podrá explotar cuando mas le haga falta: cuando necesite a la comunidad para poder cumplir sus proyectos.

fuente: rebelion.org

 

La lucrativa paradoja de Red Hat y el negocio del Software Libre

7 octubre 2013 Deja un comentario

Es gratis, pero da dinero

Desde que en 1983 Richard Stallman lanzara el proyecto GNU, el software libre ha experimentado numerosos cambios, tanto de concepto como en la manera de distribuirse y llegar al usuario final.

Pese a la gran cantidad de licencias diferentes que existen y que se consideran libres (GPL, BSD o Apache) , hay un asunto que aún confunde a aquellos que no conocen el tema en profundidad: el concepto de gratuidad. El software libre no tiene por qué ser gratis, pero siempre lo es.

Richard Stallman, creador del movimiento GNU y la licencia GPL (Foto: Webmink, Flickr)

Richard Stallman, creador del movimiento GNU y la licencia GPL (Foto: Webmink, Flickr)

Para entender esta contradicción es necesario explicar cómo funciona el sistema de licencias. Supongamos que un programador obtiene el código fuente de una aplicación de internet bajo licencia GPL y lo modifica. El programa resultante es una versión mejorada del original y el programador decide que quiere sacar algún dinero vendiendo su trabajo,con el fin de compensar su esfuerzo. No solo es perfectamente legal, sino además ético desde el punto de vista del software libre. Cualquier persona debe tener derecho a cobrar por su trabajo el precio que estime oportuno, pero la diferencia entre este nuevo programa (que sigue siendo ‘software’ libre) y otros, es que además del derecho del trabajador está el derecho del resto de usuarios.

El programador ha cogido un código que previamente había estado en manos de otras personas y no ha tenido que pagar por él. Por eso, y siguiendo con la licencia GPL, debe devolver ese código mejorado a la comunidad. Es decir, que por un lado puede cobrar por su código, pero al mismo tiempo cualquier usuario que lo consiga (pagando o no) es libre de compartirlo de manera gratuita (o cobrando también) con quien quiera. De ahí que el software libre siempre sea gratis, incluso cuando no lo es.

Logo de la licencia GPLv3 (Foto: Wikimedia Commons)

Logo de la licencia GPLv3 (Foto: Wikimedia Commons)

Sin embargo, existen otras licencias libres como la Apache que permiten al programador que ha mejorado el código no liberar su parte, quedándose con los derechos de las líneas que ha añadido por sí mismo.Android funciona de esta manera, y por eso las empresas que realicen su propia versión del sistema no tienen por qué compartirlo con las demás y son libres de comercializarlo como deseen.

RED HAT, GANAR DINERO CON SOFTWARE LIBRE ES POSIBLE

El ‘sombrero rojo’ es una empresa radicada en Carolina del Norte (EEUU). Lleva dedicándose a ofrecer soluciones informáticas basadas en ‘software’ libre desde 1993, cuando Linux era sinónimo de ‘sistema operativo para geeks’. Contra todo pronóstico, esta compañía ha conseguido no solo crecer utilizando este tipo de software, sino consolidarse como una empresa muy estable y con beneficios (casi 100 millones de dólares en 2012).

Pero la gran pregunta es: si el software libre se puede copiar y distribuir libremente, ¿cómo gana dinero?

Red Hat en el día de su salida a bolsa en Nueva York (Foto: MrLunch, Flickr)

Red Hat en el día de su salida a bolsa en Nueva York (Foto: MrLunch, Flickr)

La clave está en el servicio de soporte. Sí, el producto puede ser gratuito, pero no todo el mundo sabe código. Hay muchas cosas que adaptar dependiendo del tipo de negocio al que esté enfocado el programa, y pueden surgir problemas. Además hay que ocuparse del mantenimiento y estar pendiente de las nuevas actualizaciones que llegan al mercado. ¿Quién puede hacer todo eso? Red Hat.

Su estrategia empresarial no se basa en vender productos, sino servicios.Eso no quiere decir que Red Hat no desarrolle software, porque de hecho lo hace, y es uno de los mayores contribuidores del mundo del software libre, más concretamente del sistema operativo GNU/Linux, con Fedoracomo distribución bandera. Red Hat mantiene a sus clientes porque les ofrece un soporte de calidad de una manera sencilla y muy satisfactoria. ¿Por qué voy a centrarme en vender un solo producto una vez si puedo cobrar pequeñas cantidades a lo largo de mucho tiempo?

EL CÓDIGO ABIERTO, LA CLAVE DE LA COMPETITIVIDAD

Que el código del software que maneja Red Hat sea abierto es la clave de su éxito, y no porque el modelo de software privativo no funcione (A Apple y a Microsoft no parece que les vaya del todo mal), sino porque gracias a ello puede ofrecer productos de mejor calidad más fácilmente que sus competidores.

Poder leer el código fuente y aplicar cambios permite a Red Hat implementar mejoras, pero también cogerlas de otras empresas y usuarios. De esta manera, sus casi 6000 empleados se convierten literalmente en millones, ya que el dinamismo de la comunidad permite estar por delante cuando se produce algún cambio en el mercado.

“Creamos valor compartiendo” (Foto: Joaquim Rocha, Flickr)

En lugar de que varias empresas desarrollen el mismo tipo de software a la vez e intenten venderlo por su cuenta (programas que probablemente sean incompatibles entre sí), firmas como Red Hat se nutren de unconocimiento común que comparten constantemente. Cada una lo implementa y lo vende a su manera, con su propia marca. De este modo, y pese a que algunas compañías ofrecen exactamente el mismo producto,el cliente elegirá cuál va a ser su proveedor en función de la confianza que le otorgue, la calidad de su servicio y la profesionalidad. La consecuencia es que un número mayor de empresas pueden competir en el mismo mercado, con productos compatibles entre sí y, por consiguiente, ofrecer mejores servicios al existir una mayor competencia entre ellas. Justo lo contrario que ocurre, por ejemplo, en el mercado de los sistemas operativos privativos como Windows o Mac.

UN MODELO DE NEGOCIO AL MARGEN DE LA PIRATERÍA

Los gobiernos están muy preocupados por lo que ellos llaman “piratería”. La industrial del cine, la música, el software privativo… Todos ellos acusan a los usuarios que descargan ese contenido de la Red de robar esos productos que tanto les ha costado desarrollar. Red Hat no tiene ese problema: ‘piratear’ un sistema operativo basado en software libre se conoce simplemente como ‘copiar’. Y copiar software libre es perfectamente legal.

Gracias al código abierto, Red Hat no necesita preocuparse por la piratería o las copias ‘ilegales’ de sus software, porque simplemente no existen. El modelo de negocio de esta empresa propone una distribución al margen de las licencias privativas y los derechos de autor tradicionales, demostrando además que se pueden hacer negocios de una manera diferente y sin perjudicar a nadie.

 fuente: rebelion.org

30 años de GNU: La historia e influencia del Software Libre

3 octubre 2013 Deja un comentario

Tres décadas de software libre, código abierto y comunidad.

El proyecto GNU ha cumplido 30 años, tres décadas desde que Richard Stallman anunciara su proyecto para construir un sistema operativo “tipo Unix” desarrollado de forma abierta, distribuido libremente y con el compromiso de seguir evolucionando en las mismas condiciones. En retrospectiva parece el inicio de una gran revolución, pero para los más viejos era simplemente volver a los tiempos del inicio del software, cuando compartir no solamente era bueno, sino que también era absolutamente necesario para poder desarrollar la informática mas allá del laboratorio.

Hablar de GNU sin disgustar a los más puristas puede ser algo complicado, ya que el proyecto GNU por si solo no explica 30 años de historia, o al menos no lo hace para la mayoría de la gente. El proyecto GNU no sólo requirió aliados como Linus Torvalds y su Linux para resistir el paso del tiempo, sino que también del apoyo de grandes empresas dispuestas a apostar por un modelo de desarrollo diferente. Es por eso que es imposible entender la importancia de GNU sin mencionar las fuerzas que ayudaron a complementarlo.

Me tomaré la libertad de hablar indistintamente de Software Libre y Código Abierto (Open Source). Los puristas pueden dejar de leer en este párrafo, para el resto los invito a entender el Software Libre o de Código Abierto como aquel cuyo código es visible y modificable por quien quiera hacerlo, aquel software que se puede regalar o vender libremente, aquel software que permite construir en conjunto lo que nos interesa a todos, y construir sobre él lo que le interesa a cada uno en particular. Hacer una distinción entre ambos a estas alturas es hilar fino, o como bien dijo Miguel de Icaza SaveFrom.net, discutir si somos parte del Grupo de Liberación de Palestina o del Grupo Palestino de Liberación.

De la segregación a la integración

Hace unos 15 años, el mundo de la informática parecía estar dividido respecto al Software Libre al menos en dos bandos, unos que decían que todo el software debía ser libre, mientras que otros lo veían como una moda destinada a desaparecer. Hoy con las aguas algo más quietas podemos mirar hacia atrás y reír de esos tiempos en que nos volvimos locos cada uno con su bandera. A diferencia del fin de la guerra fría que fue marcado claramente por la caída del Muro de Berlín, la lucha entre el software libre y el software privativo fue aquietándose lentamente y fueron muchos los eventos que nos llevaron a donde estamos hoy en día.

Hoy vivimos en un mundo en que tecnologías libres y privativas colaboran, en donde prácticamente ningún usuario puede pasar un día sin usar software libre, ya sea con un flamante equipo Apple en su escritorio, o usando la distribución más exótica de Linux (o FreeBSD si prefieren). Tampoco pueden escapar los usuarios de teléfonos móviles, ni con la manzanita ni con elrobotito, y algo similar pasa en los tablets, televisores, routers o cualquier otro aparato que requiera software para funcionar.

El software libre dejó hace mucho tiempo de ser una preferencia personal, simplemente es muy difícil ser productivo sin recurrir al software que se ha creado colaborativamente, de eso no se escapa hoy ninguna empresa que quiera sobrevivir en el mercado, desde la más modesta startup hasta gigantes como Oracle o Apple.

Al grano, por favor

Sin más preámbulo y antes de que se queden dormidos, aquí va a modo de conmemoración un recuento de los eventos que han marcado la historia de GNU y sus proyectos relacionados.

  • 1983 : Richard Stallman anuncia en Usenet la creación del proyecto GNU.
  • 1984 : Se crea el X Window System, la piedra fundacional de las interfaces gráficas para Unix, utilizando una licencia de código abierto y dirigido por una organización independiente. Su naturaleza abierta ayuda a que sea aceptado como un sistema gráfico estándar por los fabricantes de la época, al pasar los años necesitará un remezón que lo sacará de su estancamiento para convertirse en un sistema gráfico revolucionario.
  • 1985 : Richard Stallman crea la Free Software Foundation. Es aquí donde se estudian y definen las licencias de software que sirvieron de base para garantizar la libertad del software creado como Software Libre de aquí en adelante. Su licencia más famosa, la General Public License o GPL.
  • 1987 : Stallman y otros colaboradores crean GCC o GNU Compiler Collection, la herramienta de compilación por excelencia de los proyectos de código abierto, usada hasta el día de hoy en alguna de sus encarnaciones.

linux

  • 1991 : Linus Torvalds publica la primera versión de Linux, el componente que le faltaba al proyecto GNU: Un kernel. A partir de este momento se desencadena la famosa “dominación mundial” del código abierto.
  • 1994 : Rasmus Lerdorf crea el lenguaje PHP, inicialmente llamado Personal Home Page Tools. Permitió que la creación de páginas web se democratizara, ayudando a que un programador promedio fuera capaz de trabajar a gusto con estas tecnologías. Parafraseando al mismísimo Rasmus: Si fuera un requisito ser experto en el lenguaje C o Perl para crear páginas dinámicas, hoy la web sería muy distinta.
  • 1995: La empresa sueca MySQL AB crea la base de datos MySQL. Eliminando características que son utlizadas sólo por algunas aplicaciones, crean una base de datos simple, liviana y fácil de usar que se convierte rápidamente en el motor de miles de sitios web.
  • 1995: Se crea el servidor web Apache. Junto a Linux, MySQL y PHP causaron una explosión de nuevos sitios web, creándose la mítica combinación LAMP (Linux/Apache/MySQL/PHP). Desde su lanzamiento, Apache ha sido el servidor web más utilizado en el mundo, tanto respecto al total de servidores activos como al grupo de los sitios web más importantes del mundo. Sin LAMP probablemente a Mark Zuckerberg se le hubiese hecho más difícil crear Facebook.
  • 1995: Sergey Brin y Larry Page comienzan a trabajar en lo que hoy conocemos como Google. En vez de utilizar grandes y caros computadores con un Unix propietario deciden distribuir todo el procesamiento en miles de equipos pequeños con Linux (el año 2000 eran 6.000 equipos con Red Hat Linux).
  • 1995Amazon.com vende su primer libro. La empresa se convierte rápidamente en la tienda online más grande del mundo, y al mismo tiempo, la base de datos más grande del mundo, migrando completamente a Linux el año 2005 con el apoyo de Oracle. Hoy en día no solamente venden libros, música y otros “tangibles” sino que también convirtieron en realidad lo que hoy conocemos como computación en la nube, permitiendo que cualquier persona pudiera comprar o arrendar poder computacional sin necesidad de preocuparse de un datacenter.
  • 1996: Matthias Ettrich funda el proyecto KDE. Se trata de un esfuerzo para estandarizar la forma en que se ven y se comportan las aplicaciones gráficas en sistemas operativos basados en Unix (Linux, FreeBSD y otros). El concepto luego fue conocido como “entorno de escritorio”. KDE es el puntapié inicial al refinamiento de las interfaces gráficas de los sistemas de código abierto, eliminando el caos y simplificando la forma en que se crean y usan las aplicaciones. Sin que sea su propósito el proyecto entrega la base para lo que se convertirá en el fin del reinado de Internet Explorer (ver Webkit).
  • 1997: Motivados por las restricciones de licencia de KDE, Miguel de Icaza y Federico Mena crean el proyecto GNOME. Se trata de un entorno de escritorio completamente libre que ayudará a la rápida adopción de Linux y otros sistemas en base al uso de una interfaz gráfica. GNOME ayuda a establecer los estándares que hasta el día de hoy son parte de los sistemas de escritorio basados en software libre.

doom

  • 1997: Id Software libera el código fuente de Doom. Si bien se libera el código cuando ya no es relevante (Quake II es de 1997), este evento marca el inicio de lo que se convertirá en una tradición para Id Software. Al liberar el código de sus juegos Id Software logró que los desarrolladores novatos pudieran aprender de estas verdaderas joyas, y al mismo tiempo convirtió a estos juegos en “eternos”. Durante los años, el legado de Id Software ha sido mejorado y mantenido por desarrolladores independientes que han resuelto los problemas dados por el paso del tiempo, resolviendo incompatibilidades, agregando nuevas características y adecuando el código para aprovechar el hardware moderno. Para los interesados en el tema les dejo este link a un blog de análisis de código de Quake y otros. De nada.
  • 1998: Gartner Group refiriéndose a sistemas de código abierto declara que “estos sistemas operativos no serán usados en aplicaciones comerciales de la industria en los próximos 3 años, ni tendrán soporte de aplicaciones de terceros”.
  • 1998: Netscape da por perdida la batalla de los navegadores y decide publicar el código fuente de Netscape Navigator, creando el proyecto Mozilla. Se trata de una de las liberaciones de código más importantes. Aunque Mozilla queda relegado a un nicho por varios años, volverá a la batalla con el navegador Firefox años después.  Esta historia contada por sus propios protagonistas se puede ver en el documental Code Rush SaveFrom.net.
  • 1999: VA Linux sale a la bolsa de valores, generando la apertura más espectacular a la fecha. Las acciones salieron a la venta en USD$30 llegando a un peak de USD$320 para terminar en USD$250 al final de la jornada. Si bien es un hecho que llama la atención, hay que recordar que se da en el contexto de la burbuja puntocom, cuando las apuestas eran muy altas pero no se sabía exactamente cual era el sustento tras ellas. La emoción del momento se puede revivir en el reporte de CNBC (segmento del documental Revolution OS).

  • 2001Apple crea Webkit a partir del código de KHTML (KDE). Webkithoy es el motor de render HTML más utilizado en el mundo, no solamente por medio de los productos de Apple, sino que también a través de Android y Google Chrome en los escritorios. La masificación de los equipos móviles con WebKit hizo que los desarrolladores de sitios y aplicaciones web dejaran de utilizar la excusa de “funciona en Internet Explorer, el que usan todos”. Webkit y su masificación ayudaron a empujar no solo la evolución y la estandarización de la web, sino que también forzaron a la competencia a retomar esfuerzos y mejorar considerablemente la tecnología detrás de los navegadores web.
  • 2001: Nace Wikipedia. Si bien no se trata de un software propiamente tal, Wikipedia logra su éxito usando como base fundacional los conceptos del Software Libre respecto a su apertura, libre distribución y evolución en base al refinamiento del conocimiento experto. Por lo mismo, no es de extrañar que el software que potencia Wikipedia – llamado Wikimedia – también sea abierto.
  • 2001IBM declara que invertirá USD$1 billón en Linux. Si bien para el usuario normal puede parecer un simple evento de negocio, las consecuencias de este hecho son dramáticas. Conocido es el hecho de que “a ningún gerente lo despedirían por escoger IBM”, y el espaldarazo de IBM al sistema de código abierto hizo que justamente los gerentes perdieran el miedo de contar con Linux en sus datacenters.
  • 2003: Oracle, el fabricante de base de datos más grande del mundo anuncia Unbreakable Linux, una iniciativa para ayudar a la adopción de Linux como sistema operativo de su base de datos en sistemas de misión crítica. A la larga el apoyo de Oracle (e IBM) fue lo que hizo desaparecer a Unix, transformándolo en un sistema irrelevante para la gran mayoría de las empresas. No es por nada que SCO, una de las empresas que basaban su negocio en vender Unix demandara a IBM tratando de declarar ilegal a Linux. Demanda que hoy se recuerda como uno de los grandes fiascos de la industria.

firefox

  • 2004: Se libera la primera versión del navegador Mozilla Firefox. Se puede decir que este navegador surgió de las cenizas de Netscape Navigator, demostrando que se podía construir como Software Libre un navegador liviano, potente, con características innovadoras, de rápida evolución y por sobre todas las anteriores: Seguro. Si bien no logró destronar por si sólo al estancado Internet Explorer, hizo que mucha gente perdiera el miedo de usar otro navegador y fue el primer empujón que hizo tambalear al navegador de Microsoft.
  • 2004: Se libera la primera versión de Ubuntu Linux. Aunque no es el primer esfuerzo serio de acercar el sistema operativo de código abierto al usuario medio (recordemos Mandrake), es el primero que tiene un éxito indiscutido. Basado en Debian, la distribución más completa de Linux, se convierte rápidamente en el favorito de los nuevos usuarios, eliminando las dificultades que muchos usuarios encontraban al instalar y usar este sistema operativo. Es tanto su dominio que muchos usuarios nuevos hablan simplemente de Ubuntu y no de Ubuntu Linux. Canonical, la empresa detrás de Linux fue fundada por Mark Shuttleworth - quien se hizo millonario gracias a Linux – partió como una especie de agradecimiento a la comunidad del código abierto y hoy en día se prepara para extender su dominio a los teléfonos y tablets a través de una versión unificada de Ubuntu SaveFrom.net.
  • 2006: Nicolás Negroponte crea el proyecto Un computador por niño(One Laptop Per Child/OLPC). Se trataba de un computador de bajo costo basado en Software Libre. La idea era entregar un computador a niños en países en vías de desarrollo como apoyo a la educación al mínimo costo posible. Independiente del éxito de la iniciativa, el proyecto hizo evidente que había interés por equipos más baratos y más portátiles que pudieran realizar tareas simples pero enriquecedoras, dando origen a la revolución de los netbooks y como segunda derivada, la revolución de los tablets y el establecimiento de la era post-pc.
  • 2006Dave Reveman publica XGL SaveFrom.net, la primera implementación que lleva al hardware actual los conceptos propuestos por Jim Gettys y Keith Packard en el 2004 para reformular el sistema gráfico de Linux, esfuerzo inspirado en la tecnología Quartz Extreme de AppleCon XGL se comenzó a usar la aceleración de hardware 3D para dibujar la interfaz gráfica, marcando el punto de inflexión entre el estancado sistema gráfico X Window System y los nuevos entornos de escritorio. XGL y su famoso cubo no sólo fascinó a los usuarios de Linux sino que también hizo que muchos se interesaran a tener “el cubo”. Como contexto, Microsoft publica Windows Vista el año siguiente, aplicando técnicas similares.

shrek

  • 2007: 95% de los escritorios y servidores usados para crear efectos especiales y animaciones en Hollywood están basados en Linux. Éxitos como Shrek, The Matrix y Titanic estuvieron entre las primeras películas creadas sobre sistemas basados en Linux, un esquema que terminó arrastrando a todo Hollywood.
  • 2008: Samsung lanza su primer televisor basado en Linux. Se trata de una serie de televisores utilizando Linux como sistema operativo. Hoy día los principales fabricantes de televisores conectados a Internet (SmartTV) utilizan Linux como sistema operativo, ya sea utilizando su propia plataforma o a través de Google TV, el derivado de Android orientado a televisión.
  • 2008Google lanza el primer teléfono con sistema operativo AndroidBasado en Linux y otros componentes de código abierto, Android se convierte rápidamente en el sistema operativo de preferencia de los fabricantes de equipos móviles, permitiéndoles enfocarse en el hardware para desarrollar teléfonos con un ecosistema de miles de aplicaciones compatibles.
  • 2013Valve, una de las plataformas de distribución de videojuegos más grande del mundo anuncia que concentrará sus esfuerzos en Linux, y anuncia un sistema operativo derivado llamado SteamOS. Como consecuencia natural se espera que este evento marque el compromiso definitivo de los principales fabricantes de tarjetas de video con el sistema operativo de código abierto por excelencia.

Como podrán ver, estos 30 años han sido marcados fuertemente por la influencia de GNU y la definición del Software Libre. Si eliminamos todos los eventos descritos en este artículo tendríamos una mundo completamente diferente. La importancia de GNU no es sólo una declaración, son hechos indiscutibles que en el día a día pueden pasar inadvertidos, porque nos hemos acostumbrado a que las cosas funcionen.

Espero que este artículo ayude a dar un reconocimiento a los miles de desarrolladores que han ayudado a construir la tecnología que tanto nos gusta usar.

Cierro con esta cita de Steve Ballmer, en el año 2006.

“No se trata de Software Libre, sino de comunidad. No es como Novell, no se van a quedar sin dinero, ya que en cierto sentido, partieron en la bancarrota.”

Visto en: fayerwayer

Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.

Únete a otros 701 seguidores