5 documentales de fotografía que no te puedes perder

Si te apasiona la fotografía, eres una persona inquieta y deseas ampliar tu visión del mundo fotográfico, aquí tienes 5 documentales de fotografía que te dejarán huella.

Fotografía de Annie Leibovitz, perteneciente al reportaje Disney Dream Portrait. Fuente: Pictify

Fotografía de Annie Leibovitz, perteneciente al reportaje Disney Dream Portrait. Fuente: Pictify

Entre todas las especialidades que engloba la fotografía, algunas han demostrado su capacidad para influir en la cultura popular. Varias de ellas, como la fotografía callejera, el fotoperiodismo de guerra o la fotografía documental, son las protagonistas de los imprescindibles documentales de fotografía que os presento a continuación:

La muerte de Kevin Carter

Kevin Carter fue un reportero gráfico de origen sudafricano que comenzó su carrera fotografiando la difícil realidad de su país durante los años 80. Durante un viaje a Sudán con las Naciones Unidas, el joven periodista realizó una de las fotografías documentales más recordadas de la historia: captó la instantánea de un bebe sudanés malnutrido y aparentemente abandonado en el suelo, junto a un buitre. Una foto que le valió en 1993 el premio Pulitzer. A pesar de ello, la vida de Carter se hundió por completo: tras esta foto decidió cambiar el reporterismo por la fotografía de naturaleza y comenzó a recibir durísimas críticas de la opinión pública ante su supuesta indiferencia hacia el niño. Carter se quitó la vida un año más tarde al no poder soportar tanta presión.

Los testimonios y vivencias de sus amigos y compañeros demostraron que Carter era una persona emocionalmente inestable, arrastraba diversos conflictos personales y la reacción ante su fotografía generó aún mayores problemas. La presión mediática fue determinante en su fatal desenlace.

Es cierto que existe más de una teoría respecto a la situación que se vivió aquel 11 de marzo de 1993. El documental ofrece todas las claves de aquella instantánea que cambió para siempre su vida. ¿Qué ocurrió? ¿Estaba el niño realmente en peligro?

The Many Lives of William Klein

Es considerado como uno de los grandes de la fotografía callejera, pero también como un artista tremendamente polifacético. William Klein continúa disparando a sus 87 años y lleva su inseparable cámara siempre a su lado, una Leica que compró al reconocido Henri Cartier-Bresson. Fotógrafo y cineasta, fue el mejor retratista de la vida social neoyorquina durante el siglo XX, aunque desarrolló la mayor parte de su carrera en Francia. Además, realizó más de veinte películas y documentales, entre los que destaca el primer reportaje audiovisual sobre el mítico boxeador Muhammad Alí.

Klein protagoniza un documental en el que desnuda su forma de entender la disciplina, recuerda sus mejores momentos y muestra las ideas que continúa aportando al mundo de la fotografía. Como curiosidad, la revista Vogue jamás publicó su trabajo, ya que lo consideraban grotesco y sin cabida entre sus páginas. The Many Lives of William Klein puede considerarse la biografía audiovisual del genial fotógrafo.

No me llames fotógrafo de guerra

El fotoperiodismo español goza en la actualidad de una gran reputación alrededor del mundo. Muchos conflictos bélicos han sido documentados por reporteros gráficos españoles, entre los que destaca el joven Samuel Aranda, ganador del World Press Photo en su edición de 2011.

Es un documental protagonizado por varios fotógrafos españoles con experiencia en zonas de conflicto, especialmente Irak, Libia y Afganistán. Samuel Aranda, Manu Brabo o Moisés Saman, entre otros, relatan sus experiencias en frentes de guerra, las dificultades que plantean este tipo de escenarios y su repercusión psicológica sobre los fotógrafos. Además, se describe con precisión el camino que sigue una foto desde el instante en que se toma hasta el momento de su publicación en un medio de comunicación: los elementos que influyen a la hora de elegir o desechar una foto, porqué una imagen transmite más que otras y los intereses mediáticos y económicos que, en muchas ocasiones, priman sobre la información. No me llames fotógrafo de guerra es la confesión de los miedos y esperanzas de estos fotorreporteros.

Annie Leibovitz, una vida a través de la cámara

La estadounidense Annie Leibovitz tiene el honor de ser la fotógrafa mejor pagada del mundo. Especializada en la fotografía documental de celebrities, ha trabajado en las más prestigiosas revistas del género: Vanity Fair, Vogue, Elle… Leibovitz ha compartido estudio con grandes figuras de nuestro tiempo, entre las que destacan la reina Isabel II, Nelson Mandela, la actriz Meryl Streep, o el Beatle John Lennon, al que realizó su última foto en vida.

A pesar de desarrollar la mayor parte de su trabajo con grandes estrellas –llegó a documentar la gira americana de los Rolling Stones en 1975- Leibovitz también ha experimentado con la fotografía publicitaria y de paisajes. Ha dirigido destacadas campañas (Walt Disney, American Express, Fifa World Cup…), dejando su sello en cada una de ellas. El siguiente documental, realizado en 1993 y dirigido por su hermana Barbara, es un recopilatorio de sus trabajos, una verdadera introspección y una inmersión en la cultura popular que logró crear con sus fotografías.

Everybody Street

Los aficionados a la fotografía callejera no podéis obviar este documental sobre la disciplina de la Street Photography. Su argumento es muy claro: mostrar la ciudad de Nueva York a través de la visión de los grandes fotógrafos de la historia.

La urbe norteamericana es seguramente uno de las ciudades más interesantes para hacer este tipo de trabajos. Un lugar que ha inspirado durante décadas a cientos de fotógrafos ávidos de captar momentos inigualables y únicos, simplemente paseando por sus interminables calles. Así, con éste documental como escaparate ideal de la ciudad, se hace una auténtica exploración cinematográfica de la Gran Manzana con la fotografía como protagonista. Un documento gráfico que puede ayudar a comprender mejor la naturaleza de éste tipo de arte y transmitir las sensaciones que se experimentan al captar las fotos.

Además, se realizan numerosas entrevistas, algunas de ellas a importantes personalidades de la fotografía. Es el caso de Bruce Davidson o Bruce Gilden, miembros históricos de la agencia Magnum, que lograron retratar a personajes de las calles neoyorquinas y sus detalles cotidianos. Otros, en cambio, se decantan por la fotografía de la escena musical, como Rick Powell, o el serbio Vladimir Milivojevich, que se centra en el mundo de los drogadictos y pandilleros. Todos ellos lograron captar momentos, escenas y situaciones únicas e irrepetibles.

visto en: http://hipertextual.com/2015/03/documentales-de-fotografia

¿Por qué nuestras horas tienen 60 minutos?

¿Sabes por qué usamos fracciones de 60 para contar nuestro tiempo? Es una práctica que  llevamos arrastrando desde hace milenios y su origen está en nuestra misma mano. Hoy te explicamos qué es y como funciona el sistema sexagesimal que empleamos en la actualidad.

skinner

Si día a día el tiempo se te escurre de las manos tal vez nunca te hayas parado a pensar en un detalle llamativo: ¿por qué lo hace en fracciones de 60 minutos? A estas alturas puede que ya te parezca lo más normal del mundo, pero no deja de ser un hecho curioso cuya razón se encuentra en el llamado sistema sexagesimal.

Este sistema es parecido a nuestro sistema decimal, el que todos conocemos, pero con base e 60 y viene acompañándonos desde hace varios milenios. Pero más allá de los detalles técnicos de los que hablaremos más tarde ¿por qué decidimos usarlo en vez de contar en fracciones de 10 o de 100, por ejemplo? Es más, este mismo sistema sexagesimal es el que usamos en la medición de los ángulos y coordenadas geométricas. Veamos el porqué.

En qué consiste el sistema sexagesimal

Antes de entender el porqué el primer punto es saber qué es. Al igual que nosotros contamos hasta 10, el sistema sexagesimal utiliza una base de 60 para hacer las combinaciones necesarias. De hecho el sistema sexagesimal es al igual que nuestro decimal un sistema posicional, es decir, que la posición de los números influye en su valor. Por ejemplo el 2 es mayor que 1 al mismo tiempo que es menor que 22. Pero a diferencia de nuestro sistema este es capaz de dividir un número en 60 porciones de orden menor.

sistema sexagesimal

Actualmente, ya que nuestro sistema es decimal, hemos llegado al consenso de escribir los números que conocemos para tratar de representar los del sistema sexagesimal gracias al uso de los dos puntos. Por ejemplo 15:30, ¿os suena? Efectivamente así es como marcamos las horas en digital, pero también podemos utilizarlo para operaciones aritméticas con ángulos y cualquier otra cifra en decimal. Un detalle curioso, como habréis visto en portada el pasar a sistema métrico moderno se asocia a la excentricidad cultural y científica. En el capitulo “Ellos salvaron el cerebro de lisa” (Temporada 10, capítulo 22), Skinner explica que en su nueva tecnocracia han conseguido no solo que todos los trenes lleguen a tiempo, sino que funcionen en el sistema métrico estándar.

El origen del sistema sexagesimal
Vale, muy bien, ya sabemos qué es pero ¿por qué lo usamos? Todo el asunto viene desde hace muchísimo tiempo. Desde tiempos babilonios de hecho. Hace varios milenios fue gracias a esta cultura que se asentó el sistema sexagesimal. Cada cifra, desde el 1 al 60, tenía su propio grafema, o símbolo (el número). El sistema en sí se remonta a la manera de contar con los dedos. Efectivamente, todo comenzó contando con el dedo pulgar las tres falanges del resto de la mano (es decir 3 falanges por cuatro dedos). Si levantamos un dedo la otra mano, que está libre, cada vez que llegamos a 12, que es el número total de falanges, llegamos a 60. Así de sencillo.

Lo que a nosotros nos parece un tanto extraño es sin embargo lo más lógico del mundo para alguien que quiere contar con las manos. Pero claro, este sistema no se quedó ahí, ni mucho menos. La razón de que haya llegado a nuestros días es que su uso fue propio de materias más sublimes, o no tanto. En primer lugar el 60 por las razones que dábamos antes se considera un número “redondo” para realizar negocios. Por otro lado, el año en el creciente fértil se dividía en 360 días, que como comprenderéis tiene mucho que ver con nuestros 365 días y además es un múltiplo del 60.

El uso de la base 60 se remontaría a contar las falanges de nuestros dedos

Más tarde, el sistema sexagesimal se convertiría en la base de la astronomía, una ciencia que los babilonios dominaban bastante bien. El círculo estaba dividido en 360 grados y cada grado correspondía a un dios. En aquel entonces ciencia y divinidad eran elementos indivisibles lo que cimentó aún más el predominio cultural del sistema sexagesimal. De hecho, el sistema geométrico religioso de los babilonios es verdaderamente curioso; por ejemplo trazar los arcos era una materia sagrada que debía hacerse con una regla no graduada y un compás por obligación, aunque de eso hablaremos en otro momento.

Muy posteriormente, durante el Califato Omeya, el sistema sexagesimal fue empleado por los árabes tanto para contar el tiempo como para la geometría y trigonometría que había evolucionado de los ancestros babilónicos, pasando por el viejo Egipto y muchas otras culturas. Fueron precisamente los árabes quienes asentaron el uso del sistema sexagesimal en la cultura moderna, ya que durante casi 500 años ostentaron todo el potencial científico sin discusión. Al igual que en su momento los babilonios trazaron las primeras líneas para que los árabes utilizaran su sistema años después, estos cimentaron el uso del sistema sexagesimal tal y como lo conocemos hoy día. Y por muy curiosos que resulte todavía sigue funcionando a la perfección.

fuente: http://hipertextual.com/2014/10/sistema-sexagesimal

30 años del misterioso entierro de juegos de Atari

Casi 10 millones de copias de videojuegos habrían sido enterradas en el desierto de Nuevo México, un día como hoy hace 30 años por Atari. Una de las leyendas urbanas más curiosas en el mundo de la tecnología.

Ethan Hein (Flickr)
Atari es una de las empresas más reconocidas y con tradición en el mundo de los videojuegos. Su consola de sobremesa, Atari 2600, fue uno de los primeros grandes pasos para que los videojuegos llegarán al salón de nuestros hogares como los conocemos hoy en día. Sin embargo, ser pionero con una apuesta tan arriesgada a inicios de la década de los 80, no significaba éxito inmediato. De hecho, Atari pasaba por uno de sus peores momentos para el año 1983, donde la venta de algunos de sus títulos fue tan mala que tuvieron que destruirlos y enterrarlos en un desierto.
Al menos, eso es lo que cuenta “la leyenda”. Un día como hoy hace 30 años fueron enterrados casi 10 millones de copias de juegos de Atari 2600, además de algunas consolas. Esta es una de las leyendas urbanas de tecnología más conocidas en el mundo, y que se ha convertido en mito con el paso de los años, pero que la prensa hace treinta años se tomó muy en serio, en especial cuando hubo uno que otro representante de Atari que lo confirmó.
Todo comenzó cuando la Atari 2600 era la consola del momento. La empresa, confiada en que su máquina para el salón tendría mucho éxito dado al buen recibimiento que tenían los ports de juegos Arcade para la 2600, quiso ir más allá y tratar de explotar el potencial de la exitosa película de E.T. The Extra-Terrestrial en el mundo de los videojuegos. El resultado fue, cuando menos espantoso.

El juego de E.T. para Atari 2600 es considerado uno de los peores videojuegos de la historia, y no es para menos. Su principal problema fue la ambición y empeño de Atari de tener listo el juego antes de navidades de 1982, por lo que los desarrolladores solo tuvieron 5 semanas para dar vida al juego, por lo que el resultado fue catastrófico.

Por otro lado, el port del videojuego de Pac-Man para Atari 2600 sí fue muy exitoso, sin embargo, la ambición de la compañía también los dejó mal parados. Atari ordenó la producción de 12 millones de copias de Pac-Man, incluso cuando solo habían vendido unas 10 millones de consolas, por lo que quedaron más de 5 millones en stock que, sencillamente, nadie compró.

Así, la leyenda cuenta que de 5 millones de copias producidas de E.T., 4 millones fueron trituradas y enterradas, junto con las unidades de Pac-Man y algunas consolas. Hace 30 años en el vertedero de Alamagordo, Nuevo México Atari enterró bajo concreto todos estos videojuegos (algunos dicen que triturados, otros dicen que en perfecto estado) y hoy por hoy sigue la leyenda.

Actualmente un estudio canadiense con permiso del estado de Nuevo México se encuentra produciendo un documental con el que pretenden revelar la verdad de esta misteriosa leyenda urbana. Lo que da más veracidad a esta historia es que la prensa de Nuevo México para la época reportó como un hecho que 18 camiones de desechos se vieron vertiendo videojuegos que luego serían triturados y enterrados. Además del documental, los gobernantes planean descubrir la verdad sobre el asunto dado que, de ser cierto, les preocupa no conocer a ciencia cierta donde han enterrado tantos desechos de componentes electrónicos.

visto en alt1040

La evolución del disco duro

Unos de los más importantes y también unos de los componentes más interesantes dentro del ordenador. Como componentes y tecnología, tienen una larga e interesante historia que se remonta a la década de 1950 y tiene un futuro por delante cuyo final cuesta vislumbrar. Tal vez una de las razones que nos parecen tan fascinante es cómo los ingenieros de las últimas décadas los han hecho mejorar en todos los aspectos: fiabilidad, capacidad, velocidad, consumo de energía, y mucho más. Sobre esto te contamos aquí, donde repasamos algunos momentos claves de la evolución del disco duro en cuanto a capacidad de almacenamiento, formatos y tamaños.

  • Compañeros de todos los días, preocupación de millones, componentes de hardware que hasta tu mamá conoce, el disco duro tiene una historia rica en cuanto a pasos en su desarrollo hasta el día de hoy. Una de las características salientes de la evolución de los discos duros es eso por lo que la media de los consumidores los identifican: su capacidad. Cuesta creer para quienes recién tocaron la superficie fría de un disco duro cuando estos llegaron a la PC hogareña de forma masiva con discos de 1 gb, que antes de esa masividad los discos duros para el ordenador personal vinieran con 5 mb de capacidad total. 5 mb! Un disco duro en el que cabría sólo un mp3. ¿Qué te parece? Otros tiempos, otras necesidades, otro estado de desarrollo de la tecnología y una informática incipiente y casi cavernícola en relación a lo que vemos hoy, ya 20 años después de la masividad comercial y a más de 60 de la primera aparición de un disco duro.

    La inspiración: La tarjeta perforada

    Algunos podemos decir que el primer disco duro es el cerebro humano, las paredes de las cavernas del pleistoceno, las culturas con escritura, el abuelo que contaba historias, etc. Pero en lo que a la informática refiere, los primeros discos duros podrían ser las tarjetas perforadas, en donde se recopilaba información digital para programas y ordenadores. Se utilizaron ampliamente en toda la primera mitad del siglo 20 máquinas de procesado para guardar ingresar información y resguardarla. Durante el Holocausto, el terror nazi las usaba para tener un sistema de contabilización de sus prisioneros, municiones y otros datos. Menos tétrico, la IBM 305 daba lugar para que estas tarjetas perforadas se utilizaran, pero al poco tiempo se empezaron a utilizar los discos duros.

    La tarjeta perforada - La evolución del disco duroLa tarjeta perforada

    IBM 350 – Primera unidad de almacenamiento basada en discos

    Componente característico de la IBM RAMAC 305 (Sistema de Contabilidad con Memoria de Acceso Aleatorio, el primer ordenador de venta libre que usaba un  disco duro de cabeza móvil (disco magnético). Este componente fue presentado en septiembre de 1956 y su sistema constaba de 40-50 platos con doble lectura/escritura de la cabeza de un solo brazo que se movía arriba y abajo de la pila de discos duros magnéticos. Esos 50 discos podían almacenar una cantidad de información gigantesca (para la época) de 5 millones de caracteres, que aproximadamente podrían ser 5 mb, aunque en esos momentos un carácter era de 7 bytes y hoy lo son de 8, por lo que estaríamos hablando de 4.2 MB aprox. La tasa de transferencia era de 8.800 bytes por segundo y cada disco medía 61 cm de diámetro. Dos refrigeradores cuidaban esta maquinaria de lujo, que costaba 10.000 dólares por megabyte.

    IBM RAMAC 305 - La evolución del disco duroIBM RAMAC 305

    Mientras tanto, en 1961, IBM inventa cabezales de discos duros que permanecen suspendidos sobre un colchón de aire. Por otro lado, la Byrant Computer 4240 viene con un disco duro de 90MB. Baja la cantidad de discos a 24 pero aumenta el tamaño de cada uno a 99.1 de diámetro.

    En 1962 IBM presenta los 1301 Advanced Disk File, que tenían 25 discos de 60 cm de diámetro, una capacidad de 28MB. Más tarde, en 1963 llegarían los 1311, de 6 platos de 28 cm de diámetro con una capacidad de 2.69 mb. Estos modelos de discos podían ser removidos y cambiados por otros por primera vez en la historia. El 1311 luego seguiría utilizándose hasta mediados de los 70.

    IBM 3111 - La evolución del disco duro IBM 3111
    Uno de los discos que se podían reemplazar. - La evolución del disco duro Uno de los discos que se podían reemplazar.

    Las cosas se hacían cada vez más pequeñas y más poderosas en 1965, que se agotó en Diciembre con el lanzamiento del 2310 Ramkit, con un disco único de 28 cm y una capacidad de 1MB, siendo este el primer disco con una bobina de voz. Mientras todo esto sucedía, una compañía se cambiaba el nombre y progresivamente nos fuimos poniendo enfrente de lo que, en 1970, sería el nacimiento de Western Digital.

    IBM 3340 Winchester: Padre del disco duro moderno

    Sin embargo IBM no aflojaba ni ante la competencia férrea que nacía en su propio suelo. En 1973, IBM introdujo el modelo 3340, que es comúnmente considerado como el padre del disco duro moderno. Esta unidad tenía dos ejes independientes, uno permanente y el otro desmontable, cada uno con una capacidad de 30 MB. Por esta razón se ha referido a él como “30-30”. Este nombre, motivó que fuera apodado unidad de disco “Winchester”, después de que el famoso rifle Winchester “30-30”. Utilizando un sellado interno y mejorando enormemente la tecnología denominada como “cojinete de aire”, el disco Winchester reduciría considerablemente la altura de vuelo del disco (es decir, la separación entre unos y otros), dejándolos a sólo 17 micropulgadas por encima de la superficie del anterior o siguiente. Los discos duros modernos de hoy todavía utilizan muchos de los conceptos introducidos por primera vez en esta unidad de principios, y por esta razón a veces se sigue llamando unidades “Winchester”.

    IBM 3340 - La evolución del disco duroIBM 3340

    La llegada de los 5,25 y de los 3.5 pulgadas

    Primeras semanas de una nueva década y veíamos nacer a la primera unidad de disco duro diseñada con el formato de 5,25 pulgadas. Era 1980, y Seagate sacaba el  ST-506. Este contaba con cuatro cabezales y una capacidad de 5MB. Aquí se generó un conflicto pequeño, porque IBM dejó pasar este primer modelo y fue por el segundo de Seagate, el ST-412, que tenía 10MB, para que fuera incorporado a la IBM PC/XT. Una posterior ampliación de la ST -412 utilizaba RLL para aumentar en un 50 % la capacidad y la velocidad de bits.

    Seagate ST-506 - La evolución del disco duroSeagate ST-506

    En 1983 llegaría el primer disco duro de 3.5 MB, de la mano de Rodime. Tenía 2 platos y almacenaba hasta 10MB. El cambio en tamaño era generoso. A lo largo de los 80 tendríamos algunos lanzamientos y mejoras tecnológicas considerables, apareciendo la IBM 3380 como el primer disco duro/refrigerador hogareño que podía almacenar hasta 1 GB de datos. Record. En 1981 WD decía que no llegaba a la industria sin ideas, y desarrollaba el primer disco duro de chip simple “Winchester”. También aparecerían los primeros discos de 2.5 pulgadas en 1988 de la mano de PrairieTek, que instala el standard para la informática portátil.

    Rodime - La evolución del disco duroRodime

    Más capacidad, menor tamaño: El nacimiento del disco duro moderno

    Los 90 no sólo son la época dorada de las sitcoms y de las boybands de pop, también fue la era en donde los discos duros se hicieron masivos y todos comenzamos a poder cambiar aquellos que venían con los ordenadores de fábrica. En 1991 IBM presenta el 0663 Corsair, de cabezales de película magneto-resistiva (MR). Formato de 3.5 y almacenaba hasta 1GB. Pero es en 1992 donde se hará historia en la evolución moderna, pues Seagate presenta el Barracuda de 2.1 GB que corría a 7200 rpm, rompiendo la frontera de las 5400rpm. En 1996, IBM anuncia la mayor densidad de almacenamiento de 1 mil millones de bits por pulgada cuadrada. Y para cerrar la década, Seagate lanza al mercado la familia de discos duros Cheetah, que lograrán velocidades de giro de hasta 10.000 rpm.

    Seagate Barracuda de 2.1 GB a 7200rpm - La evolución del disco duro Seagate Barracuda de 2.1 GB a 7200rpm
    La diferencia de tamaños en 10 años. - La evolución del disco duro La diferencia de tamaños en 10 años.

    Los microdrives y más capacidad en menos platos

    Estimulados por una mayor innovación en los dispositivos portátiles de todos los tipos y siguiendo con algunos experimentos logrados durante los 90 por HP e Integral Peripherals con discos de 1.3 y 1.8 pulgadas respectivamente, los iPod del 2001 aparecen con 5GB de capacidad dentro de un disco de 1.8 pulgadas. A mediados del 2000 los discos duros modernos ya habían pisado la barrera de las 15.000 rpm, probado el sistema de HAMR (grabar magnéticamente usando asistencia de laser térmico).

    1.3 pulgadas de HP - La evolución del disco duro 1.3 pulgadas de HP
    5GB en miniatura para dispositivos portátiles. - La evolución del disco duro 5GB en miniatura para dispositivos portátiles.

    El SATA ya tiene 2 años de edad cuando Toshiba rompe records y lanza un disco duro de 0.85 pulgadas que puede almacenar 2GB. Luego hará otra versión más amplia de 40GB sobre 1.8 pulgadas. En el 2006, el iPod se equipa con uno de 16GB fabricado por Hitachi, que para esa época ya tenía en el mercado su disco duro de 500gb. Desde ahí en adelante el tamaño y la capacidad han ido en correlativo desarrollo hasta llegar a todo lo que conoces hoy, con discos duros internos y externos de 1TB, 2TB y más, cuyos pioneros fueron Hitachi, Seagate y Western Digital.

    Microdrives de 16gb de Hitachi - La evolución del disco duro Microdrives de 16gb de Hitachi
    Discos duros externos de 2.5 Tb, como si nada. - La evolución del disco duro Discos duros externos de 2.5 Tb, como si nada.

    Velocidades comparadas según los años

    A modo de ejemplo sobre cómo han evolucionado los discos duros, observa esta guía que ha redactado Toms Hardware sobre el asunto.

    • 1991 > A un Disco de 40 MB le tomaba 37 segundos para leer toda la capacidad de un plato. (26 MB).
    • 1998 > A un Disco de 3.2 GB le tomaba 3 minutos y 31 segundos para leer toda la capacidad de un plato. (1.6 GB).
    • 1999 > A un Disco de 10 GB le tomaba 5 minutos y 37 segundos para leer toda la capacidad de un plato. (3.2 GB).
    • 2004 > A un Disco de 60 GB le tomaba 18 minutos y 34 segundos para leer toda la capacidad de un plato.  (40 GB).
    • 2006 > A un Disco de 750 GB le tomaba 52 minutos para leer toda la capacidad de un plato. (200 GB).
    • 2012 > A un disco de 2TB le toma 1 hora y media leer toda la capacidad de un plato.
    Los tamaños de plato y el form factor según la evolución.
    La historia en una imagen. - La evolución del disco duro La historia en una imagen.

    Lo que viene

    Lo que viene o mejor dicho lo que ya está aquí, como las unidades de estado sólido, que no son discos duros si nos basamos en su concepto y funcionamiento, pero que sin dudas son el próximo paso en la escala evolutiva, donde las memorias NAND Flash son las reinas del almacenamiento portátil, liviano, eficiente y ultra rápido. Y es hasta aquí que llegamos por hoy, habiendo recorrido parte de la evolución de los discos duros en cuanto a almacenamiento, velocidad y tamaño, pero también nos queda pendiente revisar las tecnologías de acceso a información, los protocolos de comunicación y los componentes mecánicos que han hecho a esta evolución en un grado más profundo y técnico.

Visto en: neoteo.com

Los Proyectos de Software Libre que Cambiaron el Mundo

Para muchos, el software libre no se trata sólo de conseguir algo gratis, es una declaración acerca de cómo debería ser el mundo. Con un fervor casi religioso, los evangelistas de código abierto han estado luchando la buena lucha por la libertad de código tanto tiempo desde que ha habido equipos. Aquí hay siete proyectos que han, literalmente, cambiado el mundo.

GNU: El gran-padre de todos ellos, y todos acrónimo recursivo favorito, el proyecto GNU fue fundada en 1984 por razones filosóficas que el software debe respetar la libertad de los usuarios. GNU es el fundador de varios otros proyectos, pero posiblemente el más importante en el ámbito de aplicación pura es la GNU General Public License, GPL. El proyecto GNU también intentó en los años venideros tener un sistema de escritorio completo basado en el kernel Hurd, pero encontró otro núcleo que rápidamente superó a los esfuerzos de GNU, y fue rápidamente adoptada.

Linux: Linux es ahora usado para referirse a una clase de sistema operativo que generalmente utiliza el espacio de usuario herramientas de GNU y el núcleo Linux. Desarrollado por Linus Torvalds como un proyecto universitario para clonar el núcleo Minix, Linux ha despegado en maneras que eran inimaginables hace unos años. Linux se ejecuta en el más grande de los mainframes, y los teléfonos celulares más pequeños.

Apache: En los años 90, el servidor web más popular fue un servidor de dominio http público desarrollado por el Centro Nacional para Aplicaciones de Supercomputación. Ese proyecto se redujo en su trayecto, dejando a los webmasters de todo el mundo el desarrollo de sus propios parches y correcciones. El proyecto Apache empezó a llevar a todos estos parches en un solo servidor, que hacía un “irregular” Server. En menos de un año, el servidor web Apache se convirtió en el número uno de los servidores en Internet, y se mantiene actualmente en la cima. La facilidad de acceso del núcleo Linux, las herramientas de entorno de usuario de GNU, y el servidor web Apache crea un ambiente perfecto para grandes y pequeñas empresas de alojamiento para iniciar sus propios sitios web en Internet.

MySQL: La más popular base de datos de código abierto, MySQL potencia a todas o parte de el “backend” de muchos de los sitios web más populares en el mundo. respaldo corporativo y el ingenio han hecho ayudar a MySQL hacer incursiones contra algunos de los principales competidores en bases de datos. MySQL tiene una profunda integración con Linux y la comunidad de código abierto, aunque también tiene una identidad corporativa exitosa . Adquirida primero por Sun, y más recientemente por Oracle, el lado corporativo de MySQL proporciona el apoyo necesario para el software de código abierto para prosperar en el centro de datos empresariales.

La historia de Unix

A pesar de que muchos usuarios han descubierto las bondades de Unix gracias a las más recientes distribuciones de Linux, como Ubuntu, lo cierto es que este sistema operativo tiene casi cuatro décadas de desarrollo. La historia de Unix comienza a finales de los años 1960, cuando el Instituto Tecnológico de Massachusetts (MIT), los Laboratorios Bell de AT&T y la General Electric trabajaban en la creación de un sistema operativo de carácter experimental llamado Multics (por Multiplexed Information and Computing Service). Multics corría en un “mainframe” (una clase de ordenadores muy comunes en la época que constaba de una unidad central que “atendía” a varias terminales “bobas”) de General Electric modelo GE-645.

Ken Thompson y Dennis Ritchie, trabajando en el DEC PDP-7.

Ken Thompson y Dennis Ritchie, trabajando en el DEC PDP-7.

Estas empresas buscaban desarrollar “un gran sistema operativo interactivo” que incorporase sólidas políticas de seguridad. Hasta ese momento, la seguridad de los datos la proporcionaba la escasa disponibilidad de los ordenadores, de los que había una pequeña cantidad y solo personal autorizado podía tener acceso a ellos. Pero la baja de precios y la popularización de los sistemas informáticos hacían indispensable integrar en el mismo corazón del SO las herramientas destinadas a proteger la información. El proyecto fue relativamente exitoso, e incluso existieron algunas “versiones para producción” de Multics, pero su pobre rendimiento hizo que AT&T decidiera desvincularse del proyecto.

Ken Thompson, uno de los programadores del equipo de los laboratorios Bell de AT&T, siguió escribiendo software para el ordenador GE-635. Entre otros programas, escribió un juego llamado Space Travel (Viaje espacial). Sin embargo, descubrió que el juego era lento en la máquina de General Electric y resultaba realmente caro, algo así como 75 dólares de EE.UU. por cada partida.  Así fue como, junto a su amigo Dennis Ritchie, escribió nuevamente el programa, pero esta vez utilizando el lenguaje ensamblador de un ordenador más popular (y barato) llamado DEC PDP-7.

Arbol genealógico de Unix.

“Arbol genealógico” de Unix.

Thompson  y Ritchie descubrieron que trabajar juntos era divertido. En 1969, y siempre dentro de los laboratorios Bell, armaron un equipo programadores -entre los que se encontraba Rudd Canaday– con la idea de desarrollar un sistema operativos que cumpliese con las premisas originales del proyecto Multics, pero que corriese en un DEC PDP-7. Comenzaron a trabajar en el sistema de archivos y en el núcleo del sistema operativo, que sería capaz de ejecutar procesos en simultáneo (multitarea). Además, crearon un pequeño intérprete de órdenes (o de comandos) y un reducido grupo de programas accesorios. El proyecto fue bautizado UNICS (por Uniplexed Information and Computing System) y, en principio, solo podía “atender” a dos usuarios a la vez. El mismo Kernighan fue el que eligió el nombre del nuevo sistema operativo, pero culpa de un juego de palabras UNICS se convertía un sistema Multics castrado (pues “eunuchs”, en inglés, es un homófono de UNICS). Entonces, se decidió cambiarle el nombre a UNIX, denominación que se mantiene hasta la actualidad.

UNIX rápidamente llamó la atención de los niveles gerenciales de los laboratorios Bell, que de pronto tenían entre sus manos un sólido sistema operativo. La empresa no había gastado un solo dólar en el desarrollo de UNIX, pero cuando el Grupo de Investigación en Ciencias de la Computación decidió utilizarlo en una máquina más potente que el PDP-7, Thompson y Ritchie consiguieron el apoyo económico de AT&T. Comenzaron a reescribir el software para que funcionase en un ordenador PDP-11/20 y, por primera vez, en 1970, UNIX corrió en esa plataforma. Los programadores habían incluido entre las herramientas del paquete un programa capaz de dar formato a textos -llamado runoff– y un primitivo editor de texto. Todo el trabajo se realizó utilizando el lenguaje ensamblador de la PDP-11/20, y los laboratorios Bell utilizaron este primitivo “sistema de procesamiento de texto” para procesar las solicitudes de patentes que  recibían. En poco tiempo runoff recibió importantes mejoras y su nombre cambió a troff, considerado el primer programa de edición electrónica capaz de realizar composición tipográfica. El 3 de noviembre de 1971, Thomson y Ritchie publicaron el primer manual de programación de UNIX, el “UNIX Programmer’s Manual

Plan 9, basado en el UNIX versión 7, de 1979.

Plan 9, basado en el UNIX versión 7, de 1979.

En 1972, Ken Thompson y Dennis Ritchie crearon el lenguaje de programación C. Si querían que UNIX fuese portado a otras plataformas, necesitaban un lenguaje de alto nivel pero que se mantuviese cerca del ensamblador. Su idea era que el código generado por el compilador de C fuese lo suficientemente rápido como para utilizarlo en la creación de sistemas operativos. Así, en 1972 se  tomó la decisión de escribir nuevamente UNIX, pero esta vez en el lenguaje de programación C. Esto permitiría que fuese modificado para funcionar en otros ordenadores y que diferentes versiones pudiesen ser desarrolladas por otros programadores. AT&T puso UNIX a disposición de las universidades, empresas privadas y del gobierno de los Estados Unidos, a través de licencias. El Departamento de Computación de la Universidad de California, con sede en Berkeley recibió una de estas licencias, y en 1975 desarrolló y publicó su propio “clon” de UNIX, conocido como Berkeley Software Distribution (BSD), que más tarde se convertiría en un fuerte competidor del UNIX de AT&T. Para tener una idea de los alcances de UNIX en esa época, basta con una frase de junio de 1972 atribuida a Dennis Ritchie y Ken Thompson: “…el número de instalaciones Unix ha alcanzado el número de 10, y esperamos que aumente...”

AT&T creó una división comercial, denominada Unix Systems Laboratories, para que se encargase  de la explotación comercial del sistema operativo. La aparición de nuevos ordenadores y el impulso recibido de parte de nuevos programadores -que utilizaban C para introducir mejoras- hicieron que fuesen liberadas diferentes versiones de UNIX. En 1975, el SO alcanzó la versión 6, que incluía  “pipes” (tuberías). Esto permitió dar una orientación modular al proyecto, consiguiendo aumentar aún más la velocidad de desarrollo. Se estima que en 1978, unos 600 ordenadores alrededor del mundo ya corrían alguna versión de UNIX. La versión 7, última basada en el UNIX original que tuvo una gran distribución, entró en circulación en 1979 y sirvió de base para la creación de Plan 9, un nuevo sistema operativo portable y distribuido, diseñado por los Laboratorios Bell para ser el sucesor de UNIX en tareas de investigación.

Escritorio de Fedora, una versión de Unix que ha dado la vuelta al mundo.

Escritorio de Fedora, una versión de Unix que ha dado la vuelta al mundo.

La empresa AT&T desarrolló y vendió UNIX System III (basado en la versión 7) a partir de 1981.La proliferación de versiones daba lugar a confusiones, así que la empresa decidió combinar todos los desarrollos propios con los de distintas universidades y empresas en 1983, dando origen al Unix System V Release 1. Esta versión introdujo características como el editor Vi y la biblioteca curses, desarrolladas por Berkeley Software Distribution. La división Unix Systems Laboratories de AT&T fue adquirida por Novell dos años más tarde, y se hizo cargo de la demanda por infracción de los derechos de copyright, revelación de secretos y violación de marca de mercado existente entre Unix Systems Laboratories y BSD. Los accionistas de Novell tuvieron que pasar el mal trago de descubrir grandes porciones del código de BSD habían sido copiadas ilegalmente en UNIX System V, y fueron contra demandados. Como la propiedad intelectual de Novell se reducía a unos pocos ficheros fuente, todo acabó en un acuerdo extrajudicial cuyos términos permanecieron bajo secreto a petición de Novell.

De forma paralela al UNIX “oficial”, desde mediados de los ochenta, Richard Stallman, del Instituto Tecnológico de Massachussets, trabajaba en lo que más tarde se conocería como “software libre”. Stallman creo un sistema similar a UNIX con intenciones de cederlo gratuitamente, con el nombre de GNU (Gnu’s Not Unix. GNU no es Unix). En esos meses, un joven estudiante de ciencias de la computación finlandés llamado Linus Torvalds comenzaba el desarrollo del núcleo de un sistema operativo para ordenadores basados en la arquitectura “Intel x86”, que reproducía muchas de las funciones existentes en UNIX. El embrionario sistema operativo fue lanzado en forma de código abierto en 1991, con el nombre de Linux. El año siguiente ese núcleo Linux fue combinado con los programas desarrollados por el Proyecto GNU, dando como resultado el Sistema Operativo GNU/Linux.

HP ofrecia sistemas como este, capaces de correr UNIX por menos de 5000 dólares.

HP ofrecia sistemas como este, capaces de correr UNIX por menos de 5000 dólares.

El resto es historia: lo que comenzó casi como un pasatiempo de dos geniales programadores se convirtió en un potente, seguro y flexible sistema operativos, capaz de funcionar en un teléfono móvil, un ordenador personal o un cluster de ordenadores. Incluso el aplaudido sistema operativo Mac OS es UNIX completo y aprobado por The Open Group. Se diferencia en que posee una interfaz gráfica propietaria (Aqua), desarrollada en Objective-C en lugar de C o C++. A pesar de tener casi 40 años sobre sus espaldas, UNIX está más vigente que nunca.