¿Cuál es el origen de “Hello world”?

La impresión del mensaje Hello World en la terminal de una pantalla es el principal ejemplo de cualquier libro de programación. ¿Cuál es el origen de este famoso ejemplo que ha marcado a miles de programadores?

Brian McEntire | Shutterstock

Brian McEntire | Shutterstock

En la década de los 70, la programación y el manejo de computadores era una tarea reservada a científicos presentes en centros de investigación avanzados o, en su defecto, en instituciones gubernamentales. Sin embargo, en el siglo XXI, la situación es completamente diferente. Los computadores han tomado diversas formas y se han adentrado por completo en nuestras vidas.

La programación, en la década de los 70, era algo reservado a un selecto grupo de personas

A este fenómeno también le ha acompañado, de forma inevitable, un mayor interés por la programación, una aptitud esencial para el desarrollo de computadores. En la década de los 70, estos conocimientos estaban reservados a un grupo muy concreto de personas. Hoy, en cambio, el número de programadores —o personas con conocimientos básicos sobre algún lenguaje de programación— es muy elevado, gracias a la mayor accesibilidad de estos conocimientos. En la red podemos encontrar decenas de tutoriales y libros que muestran, paso a paso, las bases de los principales lenguajes de programación, abriendo así un mundo infinito de posibilidades.

Sobre esto, resulta muy interesante un detalle muy concreto: la gran mayoría de libros y tutoriales sobre programación —independientemente del lenguaje que sean— enseñan en sus primeras lecciones la impresión en pantalla del mensaje “Hello World” —o, en su defecto, “Hola, mundo”—. Es un patrón que se repite en la gran mayoría de libros de programación desde la década de los 70, marcando así a millones de programadores en todo el mundo (suele ser el primer programa escrito, compilado y ejecutado por todos ellos). Pero, ¿cuál es su origen? ¿Por qué este mensaje se ha hecho tan popular?

Hello World

Brian Kernighan.

Para descubrir su origen es necesario remontarse a la década de los 70. En esa época, como decía anteriormente, la programación estaba reservada a un grupo muy concreto de personas. Entre ellas se encontraba Brian Kernighan, autor de uno de los libros de programación más famosos de la historia: C Progamming Language (1978). Previamente, también habría escrito en 1973 un libro llamado A Tutorial Introduction to the Programming Language B, en el cual introdujo por primera vez el ejemplo del famoso “Hello World”.

main( ) {
extrn a, b, c;
putchar(a); putchar(b); putchar(c); putchar(‘!*n’);
}

a ‘hell’;
b ‘o, w’;
c ‘orld’;

La razón concreta por la que Hello World fue incluido en aquellos libros es desconocida. “Recuerdo que vi una serie de dibujos animados protagonizada por un huevo y un pollo en la que el pollo decía “Hello World” con frecuencia”, afirmó Kernighan a Forbes India. No obstante, el escritor de ambos libros no puede afirmar si esa fue la razón exacta por la que decidió incluir ese mensaje en sus libros. No obstante, no deja de ser una curiosa casualidad que ha marcado a múltiples generaciones de programadores.

 

Anuncios

La Estación Espacial Internacional migra a GNU/Linux para evitar los virus

Los astronautas de la Estación Espacial Internacional descubrían recientemente que un virus informático se había colado en la estación. Concretamente, en la red local donde trabajan y están conectados sus portátiles, algunos de los cuales fueron infectados. Quien haya visto la película ‘Gravity’ puede imaginar su angustia pues, si en tierra firme un virus ya asusta, los nervios se multiplican a 400 km del suelo y dependiendo la supervivencia del buen funcionamiento de los ordenadores.

La red informática de la Estación Internacional está separada de Internet, así que el virus no pudo venir del exterior sino que entró por algún dispositivo, posiblemente un USB, que trajo alguien de la Tierra. Eugene Kaspersky, creador de la empresa de antivirus que lleva su nombre, aseguró en una charla, la semana pasada en Australia, que “los científicos de vez en cuando llegan a la estación espacial con USBs infectados, no bromeo. Hablé con algunos chicos rusos de la estación y me dijeron que cada cierto tiempo tienen una epidemia vírica“.

El primer virus conocido que infectó la Estación Espacial Internacional, en 2008, fue W32.Gammima.AG worm, un virus poco peligroso dirigido a usuarios de juegos en línea, a los que robaba nombres de usuario y contraseñas. No han trascendido el nombre ni la peligrosidad de este último, descubierto a finales de la pasada primavera según Kaspersky, pero posiblemente sea el último de verdad: la Estación Espacial Internacional está migrando su red y ordenadores de los investigadores (una docena de portátiles) alsistema operativo libre GNU/Linux.

Ahora mismo los astronautas están recibiendo lecciones sobrecómo trabajar y crear programas para Linux. De esta forma se evitarán las infecciones cada dos por tres, debidas en buena parte a que los ordenadores de la estación usaban el sistema operativo Windows, el preferido por los diseminadores de código malicioso. No es que no existan virus para Linux, pero el porcentaje es infinitamente menor. A partir de ahora, si se descubre un nuevo virus en la Estación Espacial será muy posiblemente porque alguien lo haya creado y “colado” intencionadamente, no a causa del despiste de un científico.

Kaspersky hizo estas revelaciones en el transcurso de una charla en Camberra sobre cibercrimen, espionaje y seguridad informática de los sistemas críticos, llamados SCADA (Supervisión, Control y Adquisición de Datos), que puede referirse tanto a grandes empresas como infraestructuras -ferrocarriles, centrales eléctricas, nucleares- y otros sistemas críticos.

Kaspersky puso como principal ejemplo el gusano informático Stuxnet, “un prototipo funcional y aterrador de un arma cibernética que conducirá a la creación de una nueva carrera armamentística mundial”. Según “un amigo de un amigo” de Kaspersky, Stuxnet se habría detectado recientemente en una planta nuclear rusa. Se cree que Israel creó este virus para infiltrarse en plantas nucleares de Irán y destruir sus sistemas informáticos. Saltó a la luz pública en 2010 y desde entonces ha sido detectado en diversas centrales nucleares, no sólo iraníes.

Al hablar Kaspersky de Stuxnet y la Estación Internacional en la misma charla, algunos periodistas creyeron que el virus de la estación había sido Stuxnet y cundió la alarma, que fue rápidamente sofocada con una aclaración de Kaspersky.

El romanticismo ya no existe

Hoy en día los virus informáticos los crean hackers mercenarios vendidos al “lado oscuro” o listos que compran un “kit” para hacer virus como churros y así robar el dinero o el ancho de banda a la gente. Pero hace años, “cuando los hackers eran hackers y escribían sus propios “drivers””, frase mítica de Linus Torvalds (autor del sistema operativo Linux), los virus eran obra de programadores excelsos cuyo interés estaba más en la investigación y la vida artificial que en molestar, robar o aprovecharse de alguien.

En aquellos tiempos, invierno de 1996, un escritor de virus español, Mr. Sandman, co-fundador del grupo 29A, que llegó a ser considerado el mejor del mundo, tuvo una genial idea: estaba a punto de lanzarse la sonda Huygens, que debía aterrizar en Titán, la luna de Saturno, en octubre de 1997 y llevaba en su interior un Compact Disc. La Agencia Espacial Europea había abierto una sitio web donde quien quisiera podía dejar su nombre y un pequeño texto para incluir en el CD. Mr. Sandman explicó su idea en el primer número de la revista 29A: “Como el espacio para escribir este texto es suficientemente grande como para contener un virus, he decidido mandar uno, por tanto será el primer virus del mundo que llega a otro planeta”.

No se sabe si finalmente Mr. Sandman mandó su virus. Pero muy posiblemente sus corazón palpitaría también con la idea de que una creación suya llegase a la Estación Espacial Internacional. Por desgracia, los viejos escritores de virus, científicos más que criminales, exentos de maldad e interés crematístico, están casi o totalmente extinguidos. El romanticismo ya no existe en el mundo de los virus.

Fuente: rebelion

Cómo positivar tus propios negativos color o blanco y negro

En muchos casos no hemos encontrado con algunos negativos en nuestras casas de aquellas viejas cámaras de rollo, resulta que no es necesario ir a un foto estudio para revelar dichas fotos también podemos realizarlo utilizando Gimp, me puse a buscar por internet i me tope con el sigueinte tutorial.

Negativos color

A continuación, abrimos la foto del negativo con Gimp y en el menu, seleccionamos Colores > Curvas.

Estas son las curvas normales de la imagen sin modificar. Un buen control sobre las curvas nos permite practicamente hacer la mayor parte del positivado.

Levantamos las sombras y bajamos las luces de modo que la linea diagonal queda al contrario. Podremos realizar pequeños ajustes moviendo la linea hacia arriba y hacia abajo para aproximarnos lo maximo posible al color real.

Para equilibrar la tonalidad del color (en la medida de lo posible) debemos ir a menu > Colores > Niveles. Seleccionamos el cuentagotas negro y pinchamos en el punto más oscuro de la imagen.

Negativos blanco y negro

En negativos de blanco y negro, el proceso es mucho más sencillo pues sólo tenemos que invertir el color de la imagen. Menu > Colores > Invertir.

fuente: http://www.miutopia.com

por otra parte me preguntaba si existia una aplicación para mi smartphone y si existe la misma se llama Helmut bautizada en honor de Helmut Newton Con esta app, podemos digitalizar nuestros viejos rollos de forma rápida y, fundamentalmente, barata. El responsable es un desarrollador de software y fotógrafo llamado Kostas Rutkauskas, quien ya nos había entregado una aplicación llamada Exif4Film.

Helmut

Helmut nació durante el Photo Hack Day de Berlin en 2012, pero en su momento no supimos demasiado sobre los detalles de la aplicación. Ahora estamos un poco más enterados. Esta aplicación para escanear negativos fue creada para tener a mano un sistema que sólo necesite de un smartphone y una caja de iluminación. Funciona de una forma muy similar a las aplicaciones de computadora más reconocidas, como EpsonScan o Silverfast, entre otras.

Básicamente, Helmut es una aplicación para escanear negativos que nos permite escanear, recortar y editar las fotos escaneadas con herramientas básicas para ajustar el brillo y el contraste, los niveles, el balance de color, la saturación y más. De acuerdo con algunas pruebas realizadas en móviles con Android de alta gama, los resultados han sido geniales. Por supuesto, esto está dicho por su desarrollador, por lo que deberemos probarlo por nosotros mismos para poder comprobarlo.

Para poder usar Helmut, debemos colocar el negativo en una superficie que ilumine la película de forma pareja (por ejemplo, la pantalla de una laptop o de una computadora, incluso una ventana con luz, o una caja de iluminación profesional). Siempre y cuando la película sea iluminada de forma pareja, no tendremos problemas y obtendremos buenos resultados. Una vez que hacemos esto, estamos listos para lanzar la aplicación en el smartphone.

Lo que tendremos que hacer es encuadrar la película con la cámara y tomar la fotografía. Luego, hacemos un recorte del negativo y lo modificamos de acuerdo con nuestras preferencias. La fotografía resultante de este breve período de edición puede ser compartida en Dropbox, Facebook y Flickr, entre otros servicios. En este sentido, a esta aplicación para escanear negativos no le falta nada, permitiéndonos además hacer algunas ediciones muy básicas.

El equipo desarrollador de Helmut está trabajando para crear una caja de iluminación open source para ser usada con esta aplicación, que se pueda descargar desde un sitio para hacer con nuestras propias manos o a través de una impresora 3D. Por ahora, nos podemos descargar esta aplicación para escanear negativos directamente desde Google Play, pero es recomendable tener un equipo de gama alta. Y, por supuesto, con Android. Es completamente gratuita.

“Compartir software no es piratería”

Richard Stallman, fundador del Proyecto GNU Linux y referencia en el mundo del software libre, vuelve a la carga para arremeter contra el discurso de algunos gigantes de la industria del software. “Que no se hable de piratería cuando se trata de compartir. Compartir es bueno y debe ser legal”, aseguró en su última conferencia.

No deja indiferente a nadie y una vez más se ha confirmado. El presidente de la Fundación del Software Libre ha criticado abiertamente el discurso que señala al P2P como “piratería” y una lacra a exterminar, defendido por grandes compañías, desde Microsoft a Nintendo pasando por las más destacadas de la industria cultural y del entretenimiento.

“Cualquier medida que se proponga acabar con la piratería tiene un propósito injusto y unas medidas injustas. Están diciendo que ayudar a los demás equivale a atacar barcos, pero en términos éticos no hay razonamiento más falso, porque atacar barcos es malo pero compartir es bueno”, afirmó con rotundidad el estadounidense en la sede de la Vicepresidencia de Bolivia, en La Paz.

En una clara alusión a las polémicas leyes antipiratería, Stallman señaló que “solo medidas crueles y draconianas podrían provocar que la gente deje de compartir”. El adalid del software libre considera que el intercambio de archivos debe ser siempre una práctica legal, puesto que significa “la redistribución de manera no comercial de copias exactas”. En este sentido, en noviembre de 2011 ya animó a los españoles a desobedecer la Ley Sinde por la injusticia que supone, a la par que se posicionó a favor de “legalizar la copia compartida para distribuirla sin ánimo de lucro porque es otra libertad fundamental”.

Sin embargo, lejos de entender posturas como las de Richard Stallman, gobiernos como el español optan por endurecer su lucha contra la llamada “piratería”. El último ejemplo de un paso en esta dirección lo conocimos con la denominada Ley Lassalle, que abre la puerta a que se persiga a quienes intercambian contenidos aunque lo hagan sin ánimo de lucro, atendiendo de este modo a las presiones de la industria cultural.

Por último, Stallman también cargó contra las redes sociales como Facebook o Google+ y contra algunos de sus tradicionales enemigos, Microsoft y Apple. Por un lado animó a los usuarios a implicarse más en el control de sus datos en la Red y criticó las restricciones que imponen los de Redmond en Windows y la censura de aplicaciones que practican habitualmente los de Cupertino.

Fuente: http://somoslibres.org/modules.php?name=News&file=article&sid=6122

GNU/Linux es un caso de éxito en la historia de la informática

La comunidad de especialistas en programación y desarrollo electrónico, comienzan a debatir sobre el sistema operativo Linux y su efectividad como herramienta compatible con las modernas arquitecturas tecnológicas, un entorno OS que se ha diversificado en la industria y ha forjado su propia historia exitosa.

No hay mejor opinión que la sometida al propio escrutinio público. Y es así que el presente artículo hace referencia a la postura de diversos especialistas en programación y diseño de sistemas electrónicos que han iniciado un debate público sobre la efectividad de Linux como sistema operativo confiable para las actuales plataformas electrónicas.

En la red aparece en el dominio para foros públicos patrocinado por Google, un enlace titulado formado por un cibernauta bajo el pseudónimo de ‘comp.os.minix’, y lanza un tópico titulado “LINUX is obsolete”, en al cual decenas de otros cibernautas participaron desde su publicación en el año 1992, tiempo en que el creador de Linux, Linus Torvalds comenzaba la promoción del Kernel de Linux, y lo atendía públicamente como un software de características libres.

En el anterior enlace aparecen fuertes críticas al entonces aparecimiento del “pingüinito”, alegando su incapacidad para servir como un eje central de soporte de las tecnologías venideras en la década de los 90´s, sin embargo, a la fecha este OS ha demostrado que, al igual que una analogía sobre el pingüino antártico, las frías críticas como el rudo clima de su hábitat, no han afectado en su proliferación, y actualmente este sistema operativo ha creado una gran comunidad de seguidores que lo ha convertido en todo un pingüino Emperador.

En otro enlace más actual, generado en el foro de opiniones “LinuxMint”, los comentarios que cargados de los participantes hacen referencia a la historia de éxito acuñada por Linux en los últimos 20 años, y con esto baten las barreras de dudas que en un principio de su lanzamiento acompañaron a este pingüino.

La evolución del Linux ha sido constante y a tal grado que su aplicación ha sido mayormente diversificada a otros sectores de la industria.

En otros enlaces tal como el que aparece en el sitio Web “LinuxToday”, se pueden encontrar otras ligas virtuales que direccionan a otros foros en donde se documentan los avances que ha tenido este software de carácter libre como herramienta base para muchas de las actuales innovaciones en la industria electrónica, principalmente el sector médico.

En este tenor, el sector médico ha sido uno de los receptores más robustos de Linux, ya que se implementa en una amplia variedad de dispositivos electrónicos portátiles como los medidores de glucosa, y su utilización ha seguido esta línea de tal manera que diversas compañías desarrolladoras de herramientas para el diseño electrónico se han dado a la tarea de diseñar notas de aplicación para la aplicación de Linux en el diseño y fabricación de aparatos médicos.

Es importante reconocer que el objetivo legítimo de Linux fue trabajar para la arquitectura del entonces microprocesador de Intel 80386, que en su tiempo fue uno de los hitos tecnológicos para el procesamiento de datos en cómputo pues resultaba más poderoso. No obstante, al ser un software de carácter gratuito, su aplicación fue inmediatamente diseminada hacia otros campos como el académico, donde los estudiantes comenzaron a utilizarlo para sus propios proyectos y de esta manera alimentando la innovación con este entorno operativo.

Desde entonces, Linux ha ido adaptándose a otras arquitecturas de cómputo debido a la decisión de los propietarios de tales tecnologías que se han sumado a la integración de Linux en sus plataformas electrónicas, tal es el caso de ARM, AVR32, Alpha, IA-64, 680×0, MIPS, POWER/PowerPC, y SPARC.

electronicosonline.com

Fuente: http://somoslibres.org/modules.php?name=News&file=article&sid=6064

El mito de GNU/Linux y el 1%

linux

Cada vez que mencionamos algún porcentaje que se refiera al uso de los principales sistemas operativos, habrás visto que Linux no pasa del 1%, a veces hasta menos. ¿Nunca te has preguntado por qué Linux siempre aparece con un porcentaje que nos llevaría a pensar que no lo usa ni la familia de Linus Torvalds?

Partamos de la base de que Linux no es un SO mayoritario como lo es Windows. Hemos mencionado muchas veces que el poderío de marketing de Windows es insuperable, aunado al hecho de que es instalado en casi todos los ordenadores que se venden en el mercado. Si compras un ordenador nuevo, lo más seguro es que venga con Windows. Esto lleva a que la gente lo prefiera porque es el SO que siempre ha usado, en parte debido a que cada ordenador comprado siempre ha venido con Windows ya instalado. Sin embargo, Linux tiene más que el 1%, como te lo demuestro luego del salto.

 

De acuerdo con ABI Research, Linux acaparó el 32% del mercado netbook en el 2009, a pesar de ser casi imposible conseguirlo en tiendas de accesorios. Este número no incluye sistemas vendidos con dual boot, en los cuales Windows es considerado el sistema operativo por defecto. Y estamos en el 2013…

Hay que considerar también que, para las estadísticas, cualquier ordenador que se venda con Windows seguirá contando como una venta más de Windows, aunque lo primero que se haga al llegar a casa sea formatearlo e instalar Linux.

Otro dato interesante lo da el mismo Steve Ballmer, de Microsoft, cuando recientemente ha mencionado que uno de los grandes enemigos de Windows era Linux, con una cuota de mercado que, según Ballmer, rondaba casi la misma que la de Apple. Estamos hablando de alrededor del 8%, lo cual pone a Linux al mismo nivel que Mac OS. Este 8% se traduce en 24 millones de sistemas al año vendidos con Linux preinstalado.

Visto en: http://www.softhoy.com/mito-linux-1.html

¿Qué diferencia una distribución GNU/Linux de las demás?

El mundo GNU/Linux es muy amplio y aún así muy familiar. Para la mayoría de los usuarios es familiar el concepto de entorno de escritorio, paquete y directorio raíz; curiosamente, estos elementos no son excluyentes entre una y otra distribución.Por eso, siempre que leo acerca de una distribución Linux que promete ser “diferente”, me pregunto: ¿que la hace diferente de las demás existentes? ¿Bajo qué parámetros podemos diferenciar realmente a una distribución GNU/Linux entre las miles que nos ofrece este universo?

Los paquetes y sus gestores

Si bien un mismo programa puede estar disponible para miles de distribuciones, el paquete con el cual se instala en cada una de ellas puede ser distinto. Cuando hablamos de paquete nos referimos al formato o extensión del archivo, el cual es usado por el sistema operativo para instalar un programa. Para que la distribución pueda usar ese archivo debe tener también un gestor de paquetes, el cual posee las herramientas para instalar, modificar o eliminar dicho programa. Esto es importante, porque si bien los programas no cambian entre una y otra distribución (es decir, Mozilla Firefox seguirá siendo Firefox en todas las distribuciones) es muy probable que si cambie el paquete usado para instalarlo.

Algunos formatos de paquetes son:

  • deb: usado por Debian y sus derivados.
  • RPM: (Red Hat Package Manager) originario de Red Hat y usado extensivamente por muchas otras como Fedora, OpenSUSE, Mandriva, Mageia y otros.
  • PISI: de Pardus.
  • MO: de Slax.
  • PUP y PET: Puppy Linux.
  • tar.gz: originario de Slackware, usado por muchas distribuciones y generalmente como formato de compresión.

Y algunos de los gestores de paquetes más conocidos:

  • APT (terminal) y Synaptic (gráfico): usado por Ubuntu y sus derivados.
  • Zypper (terminal) y YaST (gráfico): el gestor de OpenSUSE.
  • YUM: Fedora y Yellow Dog Linux.
  • Pacman: Arch Linux.
  • dpkg: creado originalmente por Debian.
  • Urpmi: Mandriva y Mageia.
  • up2date: Red Hat.
  • slapt-get, slackpkg y swaret: diversas “herramientas” que usa Slackware para trabajar con paquetes tgz.

gestor de paquetes synaptic

¿Es importante que cambie un gestor de paquete entre distribuciones? Si. El hecho de que se decida por un gestor en detrimento de los demás implica que se busca una gestión eficiente de los paquetes a instalar. En definitiva, el gestor de paquetes define gran parte de la “esencia” de una distribución, y es un gran punto a tener en cuenta para diferenciarla de las demás. No voy a analizar cuál es mejor, aunque en internet existen varios ejemplos de lo que llamo “la guerra aptitude – zypper – yum”, en el cual los fanáticos de SUSE proclaman que Zypper sigue siendo el mejor.

Para ampliar: http://distrowatch.com/dwres.php?resource=package-management

La usabilidad

Otro tópico que se repite muy de seguido es el nivel de experiencia que precisamos tener para usar una distribución. Sucede muchas veces al aconsejar distribuciones a los novatos, o como nos habrá sucedido con nuestra primera distribución, que se suele escuchar “ni sueñes en probar Gentoo de entrada” o “Ubuntu es una buena opción para empezar”.

La dificultad de uso de una distribución se estima en cuanto a:

  • la cantidad de elementos gráficos que ofrece.
  • la cantidad de trabajo que obligatoriamente debe hacerse por consola (donde no existan alternativas gráficas para esa tarea).
  • la dificultad de la instalación.
  • el volumen de configuración que debe hacerse luego de la instalación de la distribución.
  • si durante la instalación es necesario configurar la partición de discos o esta puede hacerse automáticamente.

Es por ello que es común agrupar ciertas distribuciones como las de nivel experto (Gentoo, Linux From Scratch, Slackware, Arch), las cuales no son recomendables para el usuario “intermedio-novato”. Últimamente se da un fenómeno que provoca que la tendencia de las distribuciones Linux se vuelque en brindar un Sistema Operativo cada vez más agradable para cualquier usuario. Aún así, siguen siendo destacables algunas distribuciones para los principiantes (Linux Mint, Ubuntu, Elementary OS, entre otros).

El hardware

No es una de las primeras cosas que se menciona al hablar de una distribución, pero no deja de ser algo importante. En un mundo que trata de desligarse del “sistema que cada vez pide más recursos” (Windows) y aún así mantenerse al día con los nuevos hardwares, existe un nicho de distribuciones que permite reciclar el hardware (Puppy Linux, Slitaz, Tiny Core Linux, AUSTRUMI, Slax, Lubuntu, Xubuntu, Alcolix, Damn Small Linux, Molinux, etc.). Si bien otras distros, como ser Linux Mint o Arch pueden instalarse en computadoras antiguas, llega un límite en la cual la fluidez del sistema se pierde, por ello existen distribuciones especializadas para ese tipo de hardware. Es más lógico, por ende, que algunas de estas distribuciones ofrezcan soporte a versiones de 32 bits y 16 bits; las más difundidas ofrecen soporte 32 y 64 bits.

Una distribución como Puppy Linux se destaca entonces en cuanto no es necesario estar al día con el hardware más potente del mercado actual, sino que es completamente funcional en computadoras con recursos simples, siempre y cuando no instalemos programas que requieran recursos excesivos.

Los formatos de lanzamiento

Es simple: una distribución suele venir en una serie de formatos que terminan por definir la esencia de la misma. Si bien los Live CD/DVD suelen ser comunes entre las distros populares, existen muchas otras que no usan dicho formato, absteniéndose a lanzar solamente versiones instalables.

La posibilidad de contar con un CD, DVD, Live CD/DVD, distintos entornos de escritorio por defecto o capacidad para instalar desde internet, es algo que influye en la decisión de muchos usuarios para probar una distribución o usarla definitivamente. También vemos que existen pre-lanzamientos que permiten a la comunidad testear la distribución antes de estar finalizada.

Otros puntos importantes también incluyen aquellas versiones para dispositivos portátiles y otras que distribuyen “Spin-Offs”, donde el ejemplo más concreto es el de Fedora, que cuenta con versión para Juegos, de Laboratorio y de Diseño, si bien esto, a mi parecer, es cuestión de instalar paquetes existentes en distintos repositorios. Por último, no olvido las distribuciones “rolling-release”, cuyos exponentes más claros son DebianArch y OpenSUSE, permitiendo actualizar el software y las versiones del sistema sin necesidad de realizar una nueva instalación o el miedo a perder datos personales.

El objetivo general

Cada distribución tiene en mente un objetivo con el cual pretende llegar a sus usuarios actuales o potenciales. De ahí podemos diferenciar a las que son específicas para portátiles (como JoliCloud que también está orientada al uso en la nube) y las de servidores (Red Hat Linux Enterprise es una de las más robustas y con mejor soporte actualmente).

Otras distribuciones tienen como objetivo el cuidado estético del escritorio y la similitud con otros sistemas (facilitando así la transición con estos), como es el caso de PearOS (con una estética similar a Mac), ZorinOS (que adapta GNOME para ofrecer un entorno similar a distintas versiones de Windows) y ElementaryOS (con un juego de íconos integrados y una instalación funcional por defecto); estas pueden presumir de diferenciarse de los entornos clásicos, pero estos aún pueden ser instalados en dichas distribuciones.

Distribución Linux PearOS

Aquellas distribuciones orientadas a un “público específico”, como Scientific LinuxMusixOtakuxy otras, solo agregan aplicaciones específicas, lo cual en lo personal me parece insuficiente para destacarla del resto del grupo, dado que una aplicación puede ser instalada en cualquier sistema si se cuenta con el código fuente.

Para destacar también, existen algunas “rarezas”, como vemos en Globo Linux, una distribución modular que organiza los programas instalados de una forma distinta al resto de las distribuciones, de forma que los archivos de un mismo programa se encuentren juntos. Los directorios clásicos existen en efecto, pero están ocultos, de modo que en el directorio raíz por defecto vemos los siguientes directorios: Programs, Users, System, Files, Mount, Depot.

Otro buen ejemplo es Igelle, construida desde 0 para dar soporte a la mayor cantidad de dispositivos existentes. La distribución cuenta con un entorno de escritorio llamado Esther escrito en GTK+ y con Webkit como motor de renderizado.

Como cierre de esta nota, me gustaría destacar un elemento que a mi parecer también es algo trascendente que diferencia a las distribuciones: la comunidad que rodea a cada distribución es vital para el funcionamiento de esta. No son pocos los ejemplos donde las decisiones comunitarias o la falta de estas fijaron el rumbo (para éxito o fracaso) del desarrollo de una distribución, y es en donde los desarrolladores deben tener más cuidado y atención. También existieron casos donde un usuario abandona una distro por no tener problemas o dudas donde la comunidad no supo responder o brindar ayuda; es por ello que la imagen comunitaria, si bien es inherente al sistema operativo como tal, sigue jugando un papel central en destacar a una distribución por encima de otras.

Por último, no olviden leer la sección “Distribuciones” de este blog, que contiene información muy útil para los recién iniciados.

via: usemoslinux