lunes, 28 de septiembre de 2009

Los 10 momentos más importantes de la historia de las TI

A pesar de que el concepto de TI tiene una vida relativamente corta, ya ha tenido algunos momentos fundamentales. La publicación estadounidense ZDNet ha elaborado una lista de los hitos más importantes de este sector de la tecnología, aunque reconoce que es poco probable que todo el mundo esté de acuerdo en los hitos que enumeran, ya que podrían incorporarse muchos más. Internet, Windows 95, Linux o Wikipedia forman parte de la lista.

1. El desarrollo de COBOL (1959) 
Hay muchos lenguajes de programación, pero ninguno ha influido en tantos otros como COBOL. Lo que hace que destaque es el hecho de que todavía hay máquinas ejecutando aplicaciones en este lenguaje. 

2. El desarrollo de la ARPANET (1969) 
Es un hecho innegable que ARPANET fue la precursora de la moderna Internet. Comenzó en una serie de notas escritas por JCR Licklider e inicialmente denominado "Intergalactic Computer Network." Sin el desarrollo de ARPANET, el paisaje de TI sería radicalmente diferente. 

3. La creación de UNIX (1970) 
Aunque muchos aseguran que Windows es el sistema operativo más importante jamás creado, UNIX debería tener ese título. Comenzó como un proyecto entre el MIT y AT&T Bell. Su mayor logro, crear un entorno multiusuario, al ser el primer sistema operativo que permitía que más de un usuario accediera a la vez. 

4. El primer portátil (1979) 
William Moggridge, que trabajaba para GRID Systems Corporation, diseñó la computadora Compass, pero que no apareció en el mercado hasta 1991, considerándose el primer portátil tipo 'clamshell'. 

5. El inicio del trabajo de Linus Torvalds en Linux (1991) 
Linux resultó el inicio de la guerra a algunas compañías establecidas en el sector, lo que aumentó la competencia. Ha permitido que estudiantes y pequeñas empresas puedan pensar a lo grande, pese a sus minúsculos presupuestos. 

6. La llegada de Windows 95 (1995) 
Sin lugar a dudas, Windows 95 ha reformado el escritorio del PC. Cuando salió al mercado el escritorio se estandarizó con la barra de herramientas, el menú de inicio, los iconos y el área de notificación. Todos los sistemas operativos comenzarían a imitar este nuevo estándar. 

7. La burbuja de las 'puntocom' (1990) 
La burbuja de Internet de finales de los 90 consiguió que una pequeña idea se convirtiera en un gran proyecto en la Red. Empresas como Amazon y Google no solo han conseguido sobrevivir a la explosión de la burbuja, si no que han conseguido tener una gran influencia sobre cómo las empresas se mueven en el mundo actual. 

8. El regreso de Steve Jobs a Apple (1996) 
En realidad, aquí solo es necesario decir una palabra: iPod. La senda tomada por Apple se encaminaba a que nunca hubiéramos visto el iPod. Y si el iPod no hubiera existido, Apple se habría marchitado. Sin Apple, no habría OS X, y todo el panorame de sistemas operativos se limitaría a Windows y Linux. No habría iPhone, por lo que ¿existirían los móviles táctiles? 

9. La creación de Napster (1999) 
Compartir archivos. Sin Napster, el intercambio de archivos se habría adoptado de una forma totalmente diferente. Napster ha influido sobre la creación de la mayoría de protocolos P2P, como BitTorrent. Los Torrents hoy ya representan casi un tercio de todo el tráfico de datos. Napster también obligó a reformular los derechos digitales. 

10. El inicio de la Wikipedia (2000) 
Wikipedia se ha convertido en una de las principales fuentes de información en Internet. Es el recurso colaborativo más grande disponible al público. Wikipedia se ha convertido en una de las fuentes citadas con mayor frecuencia en el planeta. 

domingo, 27 de septiembre de 2009

Google 11vo Aniversario

Hoy 27 de Septiembre, me encontré con que el logotipo de Google ha cambiado (como cosa rara) duplicando su ll, haciendo juego con su aniversario Nro 11. En vista de que mi blog, en el dia de ayer Sábado 26 de Septiembre fué el primer año de mi blog pero por motivo de trabajo no pude publicar nada. Creo que es justo que hablemos un poco de como nació Google y en lo que se ha convertido.
Como muchos sabrán, Google Inc. es la empresa propietaria de la marca Google, cuyo principal producto es el motor de búsqueda del mismo nombre. Fue fundada el 27 de septiembre de 1998 por Larry Page y Sergey Brin (dos estudiantes de doctorado en Ciencias de la Computación de la Universidad de Stanford).
Le otorgan este peculiar nombre por su parecido a la palabra 'googol', que en inglés es el nombre que se da a la cifra '10 elevado a 100' (un uno seguido de 100 ceros). Ya tienen indexadas 24 millones de páginas. Mucho antes, ya han tenido problemas de capacidad en sus discos duros, y han tenido que idear ingenios basados en Lego.

Aunque su principal producto es el buscador, la empresa ofrece también entre otros servicios: un comparador de precios llamado Google Product Search (antes conocido como "Froogle"), un motor de búsqueda para material almacenado en discos locales (Google Desktop Search), y un servicio de correo electrónico llamado Gmail, el cual pone a disposición para sus usuarios más de 7 GB[2] de espacio. También es famoso su programa Google Earth, un mapamundi en 3D con imágenes de alta resolución. Recientemente lanzó su versión beta de un servicio de mensajería instantánea basado en Jabber/XMPP llamado Google Talk.

Pero el dominio Google.com, fue registrado oficialmente en 1997 por Larry y Sergey. Además, han dado a conocer su tecnología a la 'Office of Technology Licensing' (OTL) de la Universidad de Stanford, que será la encargada de contactar con diferentes compañías de Internet que puedan estar interesadas en Google.
Para Enero de 1998, A Sergey y Larry no les gusta ninguna de las ofertas recibidas, bien por ser económicamente bajas, o porque no van a desarrollar correctamente la tecnología. Por ello, deciden ser ellos los que creen su propia empresa. Es entonces cuando el dormitorio de Larry Page se convierte en el nuevo hogar de Google, llevando todos los equipos informáticos junto a su cama. La habitación de Sergey Brin, situada al lado de la de Larry, se convierte en la oficina financiera.

Google sigue indexando páginas rápidamente, y Larry y Sergey necesitan mucha más capacidad en sus discos duros. Tienen que adquirir un terabyte, y finalmente consiguen comprar varios discos duros rebajados, todos por $15,000.

A pesar de la 'fiebre de los punto com' de aquellos días, Larry y Sergey no consiguen encontrar un inversor que financie Google, y tienen que conseguir todo el dinero de sus familias y amigos íntimos. Mientras tanto, habían abandonado su Doctorado en Stanford.

No es hasta el verano 1998, en el porche de la casa de un amigo común -el profesor de la Universidad de Stanford David R. Cheriton-, Sergey y Larry conocen a Andy Bechtolsheim (cofundador de Sun Microsystems y vicepresidente de Cisco Systems), y comienzan a charlar sobre Google. Después de treinta minutos, Bechtolsheim les firma un cheque por $100,000 (más tarde les firmaría otro de igual cantidad), a nombre de 'Google Inc.'.
"Básicamente los chicos necesitaban máquinas y servidores para probar su nuevo concepto, y para pagar a los abogados que les ayudasen en los temas legales", aseguró más tarde Bechtolsheim. "Y yo quería asegurarme ser parte de la compañía". Sin embargo, 'Google Inc.' como tal, no existe, y para poder cobrar el cheque tienen que buscar un local y fundar una nueva compañía: 'Google Inc.'.

Ya para Septiembre de 1998, Google Inc. consigue reunir varios miles de dólares más, gracias al profesor Cheriton y a Ram Shriram, un ex-directivo de Netscape. Y la compañía abre sus puertas en un garaje que un amigo de Sergey y Larry les alquila en Menlo Park, en California.
Rápidamente, instalan varias líneas telefónicas, un cable modem, una línea DSL, y una plaza de aparcamiento para su primer empleado, Craig Silverstein (actualmente, Director de Tecnología de Google). 25 millones de páginas están indexadas, y Google recibe diez mil consultas por día. La revista 'PC Magazine' lo incluye dentro de su lista 'Top 100 Web Sites' de 1998. En la página web de 'About Google', aparecen multitud de referencias sobre todo lo que rodea a Google: las 3 personas que trabajaban en aquel momento, toda la gente que les estaba ayudando, el software y el hardware que utilizaban, las colaboraciones, ...

Como podemos ver, los inicios de Google, al principio, no dista al de muchos estudiantes o profesionales que estan empezando en el mundo de la computación, en los cuales los sueños de lograr el invento, software o página web que lo catapulte al estrellato.
Como muestra un botón, para el año 2009, en las oficinas de Google en Zúrich (Suiza), una de las principales características que tienen las es la facilidad con las que sus colaboradores trabajan, pues para ellos están dispuestos lugares y ambientes especiales tanto para el trabajo, como para el sano esparcimiento.
Google es, posiblemente, el motor de búsqueda en Internet más grande y más usado. Ofrece una forma rápida y sencilla de encontrar información en la web, con acceso a un índice de más de 8.168 millones de páginas web. Según la compañía, actualmente Google responde a más de 200 millones de consultas al días.

martes, 22 de septiembre de 2009

10 tips de griegos antiguos para convivir con la IT moderna

Mark Vernon es el autor de “Los podcasts de Platón: la guía de los antiguos para la vida moderna”, un libro que se publicará en octubre en inglés y que da una mirada actual acerca de cómo aplicar las enseñanzas y pensamientos de los filósofos griegos a diversos tópicos del siglo 21. Según el autor, estos sabios aún tienen mucho que decir sobre la vida, e incluso en la era del Internet todavía pueden beneficiarnos con sus ideas.

1. Vaya con la corriente...
Vivir en un mundo de alta tecnología es vivir en un mundo de cambio. No era diferente para los antiguos griegos. Las aventuras de Alejandro Magno moldearon nuevamente al mundo conocido. Las tecnologías que se utilizarían para construir el Partenón estaban en desarrollo. Así, dijo Zenón el Estoico: “no resistan al cambio, aprendan a vivir con él”. Si puede ir con la corriente, encontrará la tranquilidad.

2. Recuerde que es menos...
… difícil de hacer cuando todo está a sólo un clic de distancia. Epicuro, que era conocido como un hedonista, no argumentaba que la búsqueda del más y más placer era la clave de la felicidad. En cambio, dijo que había aprendido a ser tan feliz como Zeus, si todo lo que tenía para comer era un vaso de agua y una torta de cebada. Menos es más. Esa es la prueba para la época del consumismo.

3. Trabajar para vivir, no vivir para trabajar...
Cleantes, que era un filósofo estoico, también conocido como el portador de agua, trabajaba de noche para poder hacer filosofía de día. Estaba claro que trabajaría lo suficiente, y sólo lo suficiente, para sostener su verdadera pasión, la filosofía. En un mundo de correo electrónico y de la vida a 24×7, es demasiado fácil trabajar tan duro que se pierda de vista lo que realmente se quiere.

4. Cuidado con la fugacidad de la Internet...
Puede convertirte en un héroe en una cuestión de minutos, y destruir a una persona en horas. Los antiguos filósofos no se oponían a la fama en sí. Muchos, como Diógenes el Cínico, que residía en un barril y vivía como un perro, no sólo eran famosos, sino infames. Sin embargo, todos aconsejaban que la vida misma es lo que realmente vale.

5. La amistad requiere comunicación cara a cara....
Aristóteles es nuestro asesor en esta materia. Sostuvo que una buena amistad - de almas - sólo es posible cuando los amigos "comparten juntos la sal". Quiso decir que se sientan juntos para compartir una cena de vez en cuando, pero varias cenas en el transcurso de la vida. Los mensajes de texto y las llamadas por teléfono puede que sean necesarios en la amistad moderna, pero por sí solos, no son suficientes.

6. Retener el sentido común...
Es fácil, en un mundo de la ciencia, girar hacia un lado y hacia el otro con cada nueva teoría anunciada. Usted se da cuenta con los alimentos que están de moda. Una semana, el vino tinto es malo, y la siguiente lo llamamos bueno. Sexto Empírico era filósofo y médico. Él les aconsejó a sus pacientes medir la nueva ciencia contra el sentido común. El pan puede estar hecho de carbohidratos, pero todos sabemos que es nutritivo. Por eso coman un poco, dijo.

7. Tenga cuidado que los viajes no lo cambien...
Es fácil subirse en un avión y en una cuestión de horas estar en otro uso horario y lugar, pero no debemos permitir que una cultura ajena nos cambie hasta no reconocernos. El filósofo Secundus se fue de viaje siendo joven y cambió tanto que cuando regresó a su casa, nadie lo reconoció, ni siquiera su madre. El extraño en los lugares que visitó se había convertido en un extraño en su propia ciudad.

8. No crea en todos los rumores...
Si hay una cosa que todos sabemos sobre los atenienses antiguos es que eran demócratas. Si hay una segunda cosa, es que esos demócratas mataron a Sócrates. Lo ejecutaron en manada. Y el gran riesgo de quienes disfrutan de un medio barato como la web para expresarse es el mismo: se puede establecer un "gobierno" a base de rumores que conduzcan a la turba.

9. No olvides la naturaleza...
Hay todo tipo de cosas que podemos aprender de ella. Heráclito desarrolló una filosofía entera basada en sus observaciones del mundo natural. Se dio cuenta de que debido a que el agua fluye, no podemos entrar en el mismo río dos veces. Eso es una metáfora y nos dice también que el mensaje nunca se queda quieto. Se dio cuenta de cómo sentimos al sol como nuevo cada mañana, y así quiso renovar su amor a la vida diariamente.

10. Resista la vida virtual...
La idea de que podemos tener una vida diferente - cambiando de género, pareciendo muy guapo, llegando a la perfección - ha crecido con Second Life y otras cosas parecidas. A Platón lo asocian a menudo con la existencia de un mundo perfecto, que los filósofos llaman las formas. Pero él estaba claro de que este lugar virtual no es el mundo real. Para vivir la vida en toda su plenitud, los seres humanos deben lidiar con las imperfecciones de este mundo, dijo Platón.

¿Qué falencias tienen los profesionales de tecnología en idiomas?

Los idiomas afectan cada aspecto de nuestra vida, esto incluye el campo laboral. ¿Las empresas de tecnología están al tanto de su importancia? Un artículo que analiza cuáles son los requisitos de los profesionales y sus falencias.

Por Lic. Soledad Morena
Socia Fundadora de Pensaris Corporate Training – www.pensaris.com.ar

A la hora de contratar una persona no estamos al tanto de sus falencias, contemplamos que cumplan una serie de requisitos pero ¿qué pasa cuando las exigencias son cada vez mayores en otros campo que no son en el que mejor se desempeña?

El profesional suele estar al día en lo que respecta a su área de trabajo, pero cuando necesita otras herramientas que permiten realizarse en su campo laboral, tales como idiomas, se encuentran en desventaja. Cuando se trata de trabajos u áreas en el que no hay una utilización directa vemos un nivel muy bajo de aprendizaje y comprensión del idioma.

Esto es lo que sufren los profesionales del área de sistemas ya que día a día se encuentran actualizándose con las últimas novedades que plantea el mercado y el campo tecnológico, dejando de lado el perfeccionamiento en otras lenguas ya que más que en algún otro término, las palabras básicas suelen utilizarse en inglés.

Los profesionales en sistemas cuentan con conocimientos elementales de Inglés y se valen de diccionarios virtuales para comprender manuales especializados. La Directora de la Consultora Silvana Salvo, que cuenta con más de 25 años de experiencia en el entrenamiento intensivo en Idiomas a empresas afirma, “los estudiantes y graduados de sistemas están acostumbrados a la lectocomprensión de material técnico y por ello disponen de vocabulario técnico en cantidad, mientras que carecen de herramientas estructurales que les permitan elaborar ideas y expresarlas en Inglés”; ya que generalmente estudiaron idiomas en la escuela, institutos o con profesores particulares donde sostenían conversaciones básicas y banales por lo que tienen dificultad para dar su opinión con fluidez y realizar reportes ante jefes de sedes extranjeras.

Uno de los profesores entrevistados destaca “muchos de mis alumnos tienen una excelente capacidad auditiva que calculo está relacionada con la exposición a música y películas norteamericanas”. Esta exposición supone un beneficio real pero no necesariamente repercute sobre la capacidad de expresión oral o escrita de los profesionales. Ante esto, la Directora de la Consultora propone “una inmersión en el Idioma meta que permita desarrollar efectivamente las capacidades comunicativas”

Esto tipo de hábitos se van repitiendo y un programa estándar de enseñanza de lengua extranjera no es adecuado para este tipo de profesionales. Es por eso que se plantea un nuevo tipo de enseñanzas, mucho más dinámica, intensiva en algunos casos para que los profesionales puedan adquirir las herramientas necesarias para acoplarlas a su trabajo donde los centros de idiomas tradicionales no tienen cabido dejando paso a nuevas empresas capacitadoras que entienden el día a día del mundo de los negocios.

lunes, 21 de septiembre de 2009

Nueva gama de procesadores de Intel

Intel presenta sus nueva serie de procesadores Core i7 y Core i5 especialmente diseñados para equipos de sobremesa. Además, en estos dos nuevos modelos la firma ha hecho especial hincapié en que cuenten con precios más asequibles para su integración en configuraciones más discretas.

Los modelos Core i7 serie 900 presentados el pasado año fueron los primeros en estrenar la arquitectura Nehalem, y quedaron posicionados en el tope de gama de usuarios avanzados de PC, aquellos entusiastas que suelen utilizar el ordenador para sacar el máximo rendimiento de los equipos. Su precio de 555 dólares ha propiciado que hasta el momento, sólo las configuraciones avanzadas lo incluyan.

Pues bien, justo un año después y, ajustándose a la planificación anunciada ya en su día de las diferentes generaciones de procesadores, Intel informa de la disponibilidad de procesadores Nehalem con un nuevo diseño, pero manteniendo la arquitectura del año anterior.

Intel Core i5-750
El por ahora único Intel Core i5-750 cuenta con una frecuencia de 2.66 GHz., fabricado en 45 nanómetros y con cuatro núcleos. Como se esperaba, pierde el hyperthreading de los Core i7 y sólo ofrecerá cuatro hilos de ejecución, a uno por núcleo.

Tendrá modo turbo, una especie de overclocking automático y transparente al usuario, que lo llevará hasta los 3.20 GHz.. Y por supuesto, usará el socket LGA1156 con el chipset Intel P55 que ya se encuentra presente en varias placas del mercado.

Cómo ya sucediera con los otros modelos, llevan integrado el controlador de memoria en la misma pieza de silicio que sus cuatro núcleos principales. Estos vienen acompañados de 8 MB de memoria caché de nivel 3, y son compatibles con el nuevo abanico de instrucciones SSE4.

La velocidad de reloj del más económico (Core i5-750) parte de los 2,66 GHz, con posibilidad de alcanzar mediante overclocking una velocidad estable de 3,2 GHz. Los otros dos modelos Core i7 presentados como el 860 y el Intel Core i5 presentado como 870, corren a 2,8 y 2,93 GHz, y pueden alcanzar los 3,46 y 3,6 GHz respectivamente.

La principal diferencia entre los ahora presentados radica en que los Core i5, mucho más económicos, no soportan la tecnología Hyperthreading, con lo que los 4 núcleos no pueden convertirse en 8, como sucede con los de las series superiores.


El complemento para esta nueva serie de procesadores viene a ser el chipset P55 Express, componente fundamental que pasa a formar parte de las nuevas placas base que ofrezcan soporte para estos procesadores. A diferencia del P45 de generación anterior, presenta una arquitectura nueva de chip único (lo indicado anteriormente de controlador de memoria integrado IMC), además de que soporta módulos de memoria DDR3 de doble canal de hasta 1333 MHz, frente a los DDR3 a 1066 MHz con los que trabajaba el chipset P45.

Los nuevos modelos también cuentan con la peculiaridad de aprovechar la tecnología Turbo Boost de Intel, con lo que la alimentación de los núcleos que se encuentran inactivos es cero, y es posible reducir el TDP de los mismos. De este modo, el valor de disipación térmica en los nuevos modelos presentados queda situado en tan sólo 95 vatios.

El precio del Intel Core i5-750 es de unos 210 dólares, algo elevado para el usuario medio pero no demasiado para el público exigente.

Familia de procesadores Intel Core


A modo de conclusión, la familia de procesadores que Intel propone para sus equipos de sobremesa definida de la siguiente forma:

Los entusiastas de los juegos y aquellos usuarios profesionales: los Core i7 serie 900, donde quedan englobados el 920 (2,66 GHZ), 940 (2,93 GHz) y el 950 a (3,06 GHz). Como hemos destacado anteriormente, el socket de éstos no es compatible con los del nuevo diseño, ya que es LGA1366. A su favor hay que mencionar que siguen siendo el tope de gama gracias al soporte del triple canal de memoria DDR3 1066, y sus velocidades mencionadas.

La mediana y grandes industria del mundo computación, usuarios semi profesionales: La serie 800 de los Core i7 (nuevo diseño) soportan el nuevo chipset P55 ahora presentado, con lo que la especificación de la memoria asciende a DDR 1333, pero es de doble canal, y no de triple como los anteriores. Por debajo de los mencionados se encuentran los Core i5 serie 700, unos modelos con cuatro núcleos que no soportan Hyperthreading, con lo que no pueden duplicar sus núcleos y alcanzar los 8, quedándose en 4.

Empresas pequeñas y usuarios hogareños avanzados: Los Core 2 Quad, con cuatro núcleos y sin posibilidad de aplicar Hyperthread
ing ni Turbo Boost, con lo que no es recomendable realizar prácticas de overclocking sobre ellos (así lo recomienda Intel). El chipset necesario para sus placas base es el P45 Express, con soporte de memoria DDR3 1333 de doble canal.

Conclusiones


Con los nuevos productos presentados, Intel hace oficial los Intel Core i5, los denominados Lynnfield y esperados desde hace meses. Sin embargo, lo hace con un solo modelo cuyo precio aún es algo caro para la mayoría, mas no para los entusiasta de la computación: 210 dólares.

Más interesantes que los i5, los nuevos Intel Core i7-800 nacen para satisfacer una demanda general: un único socket, y el elegido es el de los i5, el LGA1156.

Los 800 por ahora no sustituirán completamente a los anteriores 900, aunque sí parece que el 860 es una evolución de aquél primer 920, mientras que el 870 lo es del 940. Aproximadamente los mismos precios y rendimiento algo superior, pero no en exceso.

Una nueva gama, unos nuevos modelos, pero en resumen una presentación que ni de lejos ha llegado a las expectativas que se generaron. En vez de eso realmente deja mucho que pensar la gente de Intel.

¿Se decidira Intel por el nuevo socket 1156?, tomando asi la batuta que actualmente tiene el socket 775.

¿O sera que Intel planea cambiar la forma en la que compramos equipos de computos separandos los nichos de mercado mediantes los socket 775, 1156 y 1366?
La estrategia se ve confunsa, mi recomendación para los entusiasta del poder de computo, empresas que piensen migrar a equipos y al público en general, no es el momento para comprar estos procesadores, por que lo que se avecina es una verdadera guerra de socket como ocurrio hace unos 8 años por el dominio entre 478 y 775.

sábado, 19 de septiembre de 2009

¿Se terminó la carrera de los gigahertz?

El periódico estadounidense New York Times declaró, a través de una entrada de su blog, lo que los analistas de la industria, los fabricantes de microprocesadores y los clientes no pudieron lograr: el fin de la competencia en torno a la velocidad de los chips. Mala noticia para los bloggers que se dedicaban exclusivamente al seguimiento de dicha contienda.

Durante años, tanto AMD como Intel libraron una encarnizada batalla lanzando procesadores cada vez más rápidos, en el intento por dominar los cerebros de las PCs. Pero en los últimos tiempos, se puso en evidencia el hecho de que muchos otros factores influyen en la performance de una computadora. Según el periódico New York Times, la competencia por ver quién tiene más gigahertz está definitivamente finalizada. Este es un extracto de la entrada del blog en donde se realiza tal anuncio:

“AMD ha, en cierto modo, tirado la toalla en la lucha con Intel por los chips para el mercado masivo; al menos en lo referido al diálogo directo con los consumidores. Ahora, la compañía está concentrada en atacar con los chips gráficos que adquirió al comprar a ATI. Los ejecutivos de AMD argumentan que los consumidores se preocupan menos por las especificaciones técnicas hoy en día. Están más interesados en lo que las computadoras realmente pueden hacer”.

La entrada de blog menciona la reciente iniciativa “Vision” de AMD, la cual enfatiza el poder gráfico por sobre las velocidades de reloj de los procesadores. Incluso en relación a los chips gráficos, AMD procurará no discutir los puntos técnicos más detallados de sus chips y, en cambio, hablar en lenguaje “Vision”.

Un ejemplo de la nueva forma de comunicar propuesta por AMD es un anuncio de la empresa en donde se asegura que las nuevas computadoras que llegarán más adelante este año para acompañar el lanzamiento de Windows 7 soportarán más de mil millones de colores, logrando juegos gráficos de mayor realismo, y que además tendrán capacidades de audio mejoradas y podrán reproducir discos Blu-ray.

viernes, 18 de septiembre de 2009

Tiempo Promedio en las Instalaciones de Windows 7

Hasta 20 horas puede llevar actualizar a Windows 7... Aunque las instalaciones desde cero son más rápidas, el tiempo medio de pasar de Windows Vista al próximo sistema operativo será de una hora y 24 minutos.

Publicidad Microsoft ha dicho que algunas actualizaciones “in-place” desde Windows Vista a Windows 7, es decir actualizar el sistema operativo manteniendo los datos, podría llevar en algunos casos hasta 20 horas. En cualquier caso, el mejor tiempo que los usuarios pueden esperar es de una hora y 24 minutos, según publican en Infoworld.

Las llamadas instalaciones limpias, en las que un usuario sobreescribe una edición existente de Windows para actualizar el sistema operativo, pero sin tener que pasar datos o aplicaciones, lleva menos tiempo: desde 27 a 46 minutos.

Estos tiempos se han obtenidos en pruebas de laboratorio en máquinas con tres configuraciones diferentes de baja, media y alta gama, y con tres usuarios simulados con tres niveles de conocimiento, desde medio a experto. Los perfiles difieren en la cantidad de datos y número de aplicaciones que había en el ordenador antes de actualizar a Windows 7. El perfil de usuario medio, por ejemplo, asumía 70GB de datos y 20 aplicaciones, mientras que el experto realizaba la actualización con 650GB de datos y 40 aplicaciones.

Desde Microsoft se ha explicado que el objetivo ha sido que la actualización “in-place” de Vista Service Pack 1 a Windows 7 sea al menos un 5% más rápida que la de Vista SP1 a una nueva copia de Vista SP1. Sin embargo, tras las pruebas se demuestra que la mayoría de los escenarios de las actualizaciones “in-place” llevan demasiado tiempo. De las 16 situaciones planteadas sólo cuatro tardan menos de dos horas, y sólo ocho menos de tres horas.

El tiempo récord se ha conseguido, según las pruebas de Microsoft, con un usuario medio actualizando a Windows 7 de 64-bit en un ordenador de gama alta, tardando 84 minutos. La actualización más lenta fue la de un usuario experto con Windows 7 de 32 Bits en un ordenador de gama baja, con un tiempo récord de 20 horas y 15 minutos. Si saltamos a los 64-bit, el tiempo se reduce a 10 horas y ocho minutos

jueves, 17 de septiembre de 2009

Crecimiento sostenible de Twitter

Twitter, el popular sitio web de mensajes de 140 caracteres, ya vale 1.000 millones de dólares. Una estimación basada en una última ronda de inversión que reportará a la compañía alrededor de 50 millones de dólares. Según la información de Techcrunch, la operación no está cerrada y habría varios inversores, uno de ellos Insight Venture Partners, una firma neoyorquina que ya tuvo un pie en Photobucket.

Evan Williams, uno de los fundadores -y actual CEO- de Twitter habría comunicado la buena nueva a sus trabajadores hace pocas horas sin concretar todos los detalles. Williams, qué duda cabe, sabe hacer muy bien su trabajo. Y sus compañeros también.

Durante todo el año se han sucedido los rumores, con cifras exorbitantes, sobre la posible adquisición de Twitter por parte de grandes compañías, como Google o Facebook. Pero los dirigentes de esta joven compañía lo tienen claro: no venden.

El gobernador de California, Arnold Schwarzenegger, con dos de los fundadores de Twitter, Biz Stone (centro) y Evan Williams. | Reuters

Dorsey, Williams y Stone mantienen los pies en el suelo. Su apuesta es la coherencia y la sostenibilidad. Hasta ahora, Twitter sólo ha recogido unos 55 millones de dólares en inversiones cuando ha tenido sobre la mesa ofertas de venta muy superiores. La última vez que recabó dinero fue en febrero, 35 millones de dólares -entonces se valoró a la compañía en 250 millones-, y según las fuentes de Techcrunch todavía guarda 30 en el banco.

Twitter ni siquiera tiene tres años de vida. Es una compañía joven que tiene claro que no quiere distraerse con el dinero: "Mientras nuestro modelo de negocio esté en desarrollo, gastamos más de lo que ganamos". Frente a otras, la diferencia es que su modelo es sostenible, se trata de una empresa que opera a escala mundial y gasta a escala local. Por eso puede permitirse el lujo de despreocuparse

Al mismo tiempo, da pasos interesantes. De cara al futuro, ha mejorado su servicio de búsquedas en tiempo real, ha comenzado a confirmar identidades y ha lanzado Twitter 101. ¿Sabe Twitter cómo va a ganar dinero dentro de seis meses? Seguro que no. Pero tiene las claves para comenzar a hacerlo y la ventaja de que con poco puede hacer mucho. Simple sentido común.

domingo, 6 de septiembre de 2009

Los usuarios de Blackberry trabajan 15 horas extra por semana

Aunque estar conectado permanentemente al correo electrónico puede ser una ventaja, un estudio entre más de 600 empleados publicado por el Daily Telegraph desvela que puede convertirse en una tortura, ya que los usuarios de blackberry suelen llevarse el trabajo consigo y acabar haciendo demasiadas horas extra, debido a la capacidad de recibir y enviar mensajes de correo electrónico por la Blackberry, incluso cuando están en casa.

El director gerente de la empresa de trabajo "Península", Peter Bone ha dicho que : "Es importante para el personal pasar tiempo de calidad fuera de la oficina, pasar tiempo con la familia, o la realización de actividades recreativas en lugar de aprovechar para responder a mensajes de correo electrónico del cliente".

"Los jefes no deberían alentar al personal a trabajar desde su casa a menos que sea necesario. Deben informar a los funcionarios que deben limitar el trabajo desde casa. Si están contentos con trabajar fuera, que se aseguren de firmen por la semana laboral máxima. Sino, los empleados serán menos productivos durante la jornada laboral".

La crisis nos ha obligado a todos a ser más productivos y para los que tienen acceso a un trabajo en casa, esta es una oportunidad para ponerse al día o salir adelante. Con el correo electrónico, los empleados con teléfonos inteligentes son capaces de responder mucho más rápido y también pueden irse preparado para el día de trabajo que tienen por delante, al comprobar su correo electrónico lo primero.

"Los empleados deben ser alentados a tomar pausas de descanso adecuadas, si lo hacen para continuar trabajando fuera de horas. Tener un empleado bien descansado, con un correcto balance entre vida y trabajo, es mucho más útil que un empleado cansado que trabajó demasiadas horas la noche anterior".

Apple rediseñará sus MacBooks

Una vez superados los rumores sobre su posible extinción, la actualización de los MacBooks de Apple está próxima, lo que podría favorecerlas en el mercado de los portátiles. Los nuevos equipos saldrán a la venta a un precio inferior a 999 dólares en Estados Unidos, lo que supone un cambio en la estrategia de la compañía de fabricar productos bastante costosos. Aunque no se sabe cuántos modelos formarán parte del rediseño, ya empiezan a surgir las primeras especulaciones.

Los de Cupertino se encuentran actualmente revisando los diseños industriales de sus equipos de 13 pulgadas para convertirlos en dispositivos más delgados, ligeros y con una arquitectura interna de arranque reestructurada, según filtra el sitio AppleInsider.

Este rediseño llega después de tres años. En 2006, los sistemas de blanco y negro sustituyeron a los procesadores PowerPC basados en iBook y Powerbook de 12 pulgadas, como parte de la transición de la compañía de la manzana a los procesadores de Intel. Esta maniobra le convirtió en el producto más vendido en la historia de la compañía, según los datos que maneja NDP Group.

A principios de primavera, Apple reestructuró su oferta con el reposicionamiento de su portátil MacBook de aluminio monocasco, bajo el nombre de MacBook Pre, que incluye características tales como Firewall.

“Nosotros creemos que la línea de MacBook necesita ser renovada y que se podría ver una línea de menor precio pronto, colocado debajo de la nueva MacBook Pro”, explica Ben Reitzes, analista de Barclays Capital, al portal especializado en el universo Mac.

Los nuevos equipos podrían salir al mercado a un precio inferior a los 999 dólares. Teniendo en cuenta las palabras de Steve Jobs de que su compañía es incapaz de fabricar una máquina de 500 dólares, esta reorientación de su política de precios podría suponer el abandono de su estrategia de vender productos elevados desde un punto de vista monetario.

Microsoft torna los teléfonos “tontos” en “inteligentes”

A partir de ahora, no hará falta tener un móvil de última generación para acceder aplicaciones como Facebook o Twitter. Microsoft ha desarrollado un programa, OneApp, que permite a móviles estándar funcionar como smartphones. El software ha sido concebido para mercados emergentes, como China, Brasil o India, con millones de móviles en el mercado pero pocos de última generación. Para utilizarlo, sólo es necesario descargarlo como si se tratara de un tono.

OneApp traerá preinstalado un conjunto de aplicaciones decidido por el operador, que también se ocupará del mantenimiento. Así se resuelve el problema de la escasez de memoria y potencia de los teléfonos convertidos.

Los usuarios no tendrán que almacenar las aplicaciones en sus móviles, ya que simplemente se conectarán a ellas a través del software. La descarga tiene un peso de sólo 150 KB, y cada aplicación ocupa 30 KB.

Además, funcionará sobre redes GPRS y EDGE, sin necesidad de conectarse a una red 3G, n siempre disponible en los mercados a los que se dirige el producto,

El operador sudafricano Blue Label Telecom será el primer en ofrecer este servicio dentro de unas semanas, ofreciendo un paquete con acceso a Facebook, Twitter y Windows Live Messenger. Durante 2010 se unirán otros mercados emergentes.

Otras opciones que se pueden incluir son el acceso a noticias, información financiera o meteorológica, transferencias de dinero, lector de RSS y juegos. Antes de fin de año, Microsoft lanzará un kit dirigido a los desarrolladores que quieran construir sus propias aplicaciones.

Un estudio realizado por Nielsen Online ha revelado que la cuarta parte de los usuarios de las redes sociales accede a ellas a través de sus teléfonos móviles. Este dato pone de manifiesto el imparable crecimiento de este tipo de redes on line, que ha llegado ya al mundo de la telefonía portátil. Un ejemplo de ello son las 442.000 personas que se conectaron a Facebook por este medio durante el primer trimestre del año.

Los datos del informe destacan que las actividades más comunes de los usuarios de las redes sociales son la lectura y el envío de mensajes, con cifras cercanas al 50%. El 44% de los encuestados asegura que utiliza el móvil para ver las fotografías de su red, mientras que un 31% lo hace para cargar nuevas instantáneas. Sin embargo, algunas tareas todavía se reservan para llevarlas a cabo a través de las computadoras. El temor a una desconexión repentina por la falta de cobertura hace que la carga de vídeos o la publicación de blogs se realicen desde casa.

Cuatro interrogantes respecto al Nokia Booklet 3G

Hace unos días Nokia sorprendía a todos anunciando que va a entrar en el mercado del portátil. La máquina, que se llama Booklet 3G, tiene un acabado de aluminio que, a primera vista, recuerda mucho a los MacBook de Apple. Pesa 1,25 kilogramos, sólo tiene dos centímetros de grosor y 10,1 pulgadas de pantalla y una batería que, según el fabricante alcanza las 12 horas de autonomía. Hasta ahí lo que sabemos hasta la fecha. Sin embargo, el anuncio abre muchos interrogantes.

Primera pregunta
¿Qué hace Nokia, el líder del suculento negocio del móvil, entrando en el duro terreno de la informática personal, con tantos jugadores en liza y unos márgenes bastante más bajos [según Canalys.com, Nokia opera con beneficios brutos del 34% en móviles, tres veces más que lo que obtienen HP, Toshiba o Acer vendiendo portátiles]? En 1991 Nokia ya tuvo que salirse de la informática con la venta de Nokia Data a ICL.

Segunda pregunta
¿Qué canal de distribución van a tener los portátiles de Nokia? Todo dependerá de cómo se vendan. Lo más lógico es que el fabricante, la marca de móviles más reconocida y que tiene acuerdos con todos los grandes operadores de telecomunicaciones, aprovechará la descomunal cadena de tiendas de estos (Vodafone, MoviStar y Orange) para popularizar su nueva línea. Está por ver si el Booklet 3G se va a codear además en los lineales de otro tipo de establecimientos con los netbooks y ultraportátiles de los HP y compañía. ¿Veremos a Nokia lidiando con mayoristas, grandes acuerdos logísticos con retailers y todo eso?

Tercera pregunta
Si así fuera, si se abriera a la distribución tradicional, ¿Cómo va a casar un producto premium (por marca, diseño, especificaciones y precio) en un entorno donde dominan las gamas de entrada? Precisamente HP ha tenido muchos problemas para ganar cuota en el mundo del miniportátil por no tener un producto de precio asequible, como Asus o Acer.

Última pregunta
¿Qué planea Nokia a largo plazo? Porque el anuncio de un portátil con Windows coincide con el reforzamiento de su línea de móviles con Linux (el modelo N900 irá equipado con el sistema operativo Maemo, un desarrollo propio basado en software libre). ¿Veremos una Nokia menos propietaria, menos dependiente de Symbian, y más estándar?



¿Qué se traerán entre manos las futuras notebooks?

Los nuevos modelos de portátiles incluirán un teclado numérico como el de los equipos de escritorio. Además, en lugar de la unidad extraíble del CD-DVD tendrán una ranura para introducir el compacto como en los reproductores de los vehículos. Esos son dos de los cambios que se empezarán a notar con más frecuencia en las notebooks de marcas como Toshiba, Dell, HP y Apple, que se unen a las cámaras web integradas, mayor capacidad de discos duros y memoria, y pantallas y bocinas de alta definición que ya normalmente incluyen muchos equipos.

Los fabricantes justifican las novedades en el aumento de la demanda de estos equipos a nivel doméstico, universitario y de pequeñas y grandes empresas.

La firma IDC, especializada en el mercado informático, estimó que la venta de portátiles crecerá en el 2009 un 16% y que el mercado de notebook y netbook (minicomputadoras con pantallas de 10 o menos pulgadas en diagonal) continuará creciendo en el segundo trimestre.

Toshiba presentó recientemente las nuevas portátiles que traen algunas de esas novedades. Por ejemplo, con algunos modelos de Toshiba, el usuario puede cargar su celular o cualquier otro dispositivo personal (como un reproductor) por medio de un puerto USB.

Además, puede proteger archivos con un sistema de reconocimiento de rostros, de forma que nadie más puede abrirlos. Eso serviría para resguardar datos de la empresa que se cargan en la portátil para que no sean conocidos por terceros.

Entre los cambios más visibles está el teclado numérico para realizar cálculos como se acostumbra hacer en una calculadora de escritorio o en el teclado de la computadora en la oficina.

También incorpora controles de DVD-CD (pausa, detener, reproductir, etc.) en la parte superior del teclado. Así se puede escuchar música o ver un video sin necesidad de manipularlo con el mouse en el sistema de reproducción.

En algunas portátiles de esta marca solo encontrará la ranura Slot Load para el DVD o el CD, en lugar de la unidad extraíble, y un botón Eco para instalar la computadora en modo de suspensión y ahorrar energía mientras realiza otra actividad personal.

En el caso de Apple, ninguna de sus portátiles incorpora aún el teclado numérico ni el reconocimiento de cara, pero sí vienen con un sistema de protección de disco duro, el Sudden Motion Sensor. En las portátiles de esta marca la función de ahorro de energía se activa con el mismo botón de encendido o con solo cerrar la máquina.

Además, las MacBook y MacBook Pro tienen Slot Loading en lugar de un DVD Rom extraíble, mientras a la MacBook Air se le conecta una unidad externa mediante el puerto USB.

Dell también incorpora algunas de estas novedades en sus laptop. Por ejemplo, los modelos portátiles de la marcas Studio 17 y Precision M6400 ya tienen el teclado de números.

La protección de disco duro está presente en todos los discos de Latitude. Además, la compañía ofrece las opciones de Full Disk Encryption –para que la información solo se pueda leer si se cuenta con la clave para descifrarla– ya sea mediante un dispositivo físico adicional o como un software.

Otro mecanismo opcional de seguridad es un dispositivo conocido para borrado remoto de datos, de forma que si el equipo es robado o se pierde con información valiosa se puede activar para destruir esos datos. Además, las portátiles Latitude tienen huella digital de seguridad.

Dell también ofrece modelos con botón para ahorro de energía, ranura de DVD-CD y conector USB para cargar electricidad a dispositivos personales.

En el caso de Hewlett Packard (HP), su portátil DV 6-1277 LA incluye sistema de reconocimiento de huella digital y puede hacer la carga de reproductores. También tiene protección del disco duro.

Según Nvidia, las GPUs mejorarán su performance 570 veces para el año 2015

El CEO de la empresa dijo durante su charla en la conferencia Hot Chips que las GPUs se perfilan muy favorablemente hacia el crecimiento en términos de performance. También indicó que no tiene sentido integrar los chips gráficos y los microprocesadores de propósito general, dado que los procesadores discretos (es decir, no integrados) ofrecen mayor performance.

Jen-Hsun Huang, CEO de Nvidia, aseguró que para el año 2015, las unidades de procesamiento gráfico tendrán un poder de cómputo 570 veces superior al que tienen en la actualidad. Mientras tanto, las CPUs (o microprocesadores de propósito general) serán sólo tres veces mas veloces que los más poderosos chips de hoy en día. Considerando el hecho de que los chips gráficos modernos pueden ofrecer alrededor de 1 TFLOP de poder de cómputo, para el año 2015 alcanzarían el nivel de 570 TFLOPs.

Las predicciones de Huang contradicen a las de William Dally, científico en jefe de Nvidia, quien auguró que las GPUs tendrán una performance de 20 TFLOPs en 2015.

Durante la ronda de preguntas y respuestas posterior al discurso, el profesor David Patterson, de la Universidad de Berkeley, preguntó a Huang que si tuviera que empezar de cero, si aún dividiría a las CPUs y GPUs en chips separados. El CEO de Nvidia respondió que hay tres partes intresadas: los programadores, los OEMs/ODMs y los diseñadores de chips, y cada uno tiene diferentes requerimientos que hacen difícil apostar por la integración de nuevas arquitecturas que se desarrollan muy rápidamente en un único dispositivo. Al separar las funciones, cada una puede desarrollarse a su propio ritmo y brindar la flexibilidad para atender muchas oportunidades de mercado. Huang destacó el hecho de que las GPUs están evolucionando más rápido que cualquier otra arquitectura de chips.

Microsoft e Intel diseñan máquinas optimizadas para Windows 7

Microsoft ha hecho mejoras a su futuro sistema operativo que elevarán la velocidad de las aplicaciones en máquinas basadas en los chips multi-núcleo de Intel, resultando en una mayor performance y un menor consumo. Las mejoras provendrían del aprovechamiento de características exclusivas de los chip de Intel.

Ciertos “ganchos” de hardware en los nuevos chips de Intel ayudarán a Windows 7 a brindar mejoras de performance al correr aplicaciones tales como reproductores de DVD en comparación con Windows Vista, según anunciaron Intel y Microsoft en una reciente conferencia de prensa. Además de una performance mejorada, el sistema operativo hará un mejor uso de las características de administración de energía incluidas en los más recientes chips de Intel.

Microsoft diseñó el sistema operativo para escalar la performance de las aplicaciones dividiendo inteligentemente las tareas tales como codificación de video para ejecución simultánea en múltiples núcleos y threads, según dijeron las compañías. La mejora de performance depende de la aplicación y del escenario de uso, según dijo Ruston Panabaker, gerente principal de programa en Microsoft.

Los usuarios de Windows 7 podrían ver notables mejoras de performance cuando Intel lance sus nuevos procesadores móviles y de escritorio basados en la micro arquitectura Westmere, capaz de ejecutar dos threads por núcleo. Los nuevos chips –denominados Arrandale y Clarkdale para equipos móviles y de escritorio, respectivamente– estarán en producción en el cuarto trimestre de este año. Los chips serán fabricados bajo una tecnología de proceso de 32nm.

Microsoft hizo cambios en el kernel de Windows 7 para mejorar la administración de energía de los núcleos de los chips Intel, en comparación con sistemas operativos previos. Una demostración exhibió que el gasto de energía durante la reproducción de un DVD en una notebook con Windows 7 funcionando a batería alcanzó 15,63 watts, mientras que el gasto en un equipo similar basado en Windows Vista fue de 20,48 watts. Tales ahorros de energía podrían mejorar en horas la vida de la batería, dijo Panabaker.

Microsoft también hace un mejor uso del sistema de timer que pone a los núcleos de los chips Intel en modo dormido al quedarse ociosos. Dependiendo del uso, el sistema operativo puede inteligentemente poner diferentes núcleos en diferentes estados de uso energético, con lo cual el procesador quedaría en modo ocioso durante más tiempo en Windows 7 que en Windows Vista.

Los chips Westmere de Intel también incluirán instrucciones para AES (Advanced Encryption Standard), lo cual ofrece instrucciones de hardware para acelerar la encriptación de datos. Microsoft agregó instrucciones AES a la API de Windows 7, de forma tal que los desarrolladores de aplicaciones puedan construir programas usando esa forma de encriptación.

Un ejemplo de uso de la encriptación AES es BitLocker, una característica de Windows 7 que permite cifrar la información en un medio de almacenamiento. Normalmente, la encriptación de datos y las funciones AES imponen un mayor trabajo al microprocesador, pero el agregado de nuevas instrucciones puede ayudar a reducir esa carga extra de trabajo.

sábado, 5 de septiembre de 2009

Chrome abraza los 64-bits

El equipo encargado del V8, el motor de Chrome que ejecuta los programas escritos en el lenguaje JavaScript, anunció que está trabajando para llevar Chrome a los 64-bit. Por el momento, la iniciativa solo considera al sistema operativo del pingüino (llamese Linux).

Virtualmente los ordenadores actuales incorporan procesadores de 64-bit, tanto de Intel como de AMD, pero es normal que tanto los sistemas operativos como el software en general sea de 32-bit. La transición hacia el software de 64-bit se está realizando, con más hincapié en Linux y Mac OS X, pero el cambio no es sencillo. Del lado de los navegadores puede ser problemático ejecutar un navegador a 64-bit con un plug-in de 32-bit para aplicaciones como Adobe Flash, Microsoft Silverlight o el Java de Sun.

En las versiones de 64-bit los programas pueden aprovecharse de contar con más memoria y rendimiento, pero también hay que tener en cuenta más espacio en disco y mayores pruebas que hacen que en ocasiones no se observe una mayor velocidad de la aplicación, por lo que el paso hacia los 64-bit no parece haberse convertido en una prioridad.

Mac OS X, por ejemplo, ha cumplido casi al completo la transición a los 64-bit, pero la versión de Safari de 64-bit no llegará hasta Mac OS X 10.6, más conocido como Snow Leopard, que ya se encuentra disponible.

Como aclaran en News.com, sin ninguna duda el campeón de los 64-bit es Linux, con un montón de seguidores y desarrolladores que consiguieron que Adobe lanzara una versión de Flash Player de 64-bit para Linux y que ahora lo consiguen con Chrome.

Los 5 mayores mitos de Linux

En LinuxHaxor realizaron una recopilación de los cinco grandes mitos que asolan al sistema operativo del pingüino desde sus orígenes. Si bien hoy en día muchos ya fueron desterrados, siempre resulta oportuno aclarar los conceptos y así contribuir a terminar con los viejos prejuicios infundados.

1. La instalación de Linux es compleja

Lo cierto es que hace ya años que instalar prácticamente cualquier distribución de Linux (las hay más dificilillas) es una tarea asequible a cualquier usuario. El único paso en el que creo que aún hay que tener cierto cuidado es en el particionamiento del disco duro, pero los asistentes incluidos en las distribuciones ya permiten redimensionar y mover particiones de un lado a otro sin destruir los datos de particiones de Windows, así que con algo de cuidado este obstáculo es fácilmente superable. Y el resto, coser y cantar. Muchas distribuciones han apostado por el CD de instalación que en realidad es un LiveCD, de modo que podemos ir probando la distribución, navegando por Internet o jugando a algún jueguecito mientras esta se completa. Otras permiten realizar instalaciones alternativas con sistemas como Wubi, así que las opciones son casi ilimitadas en este apartado que siempre ha tratado de ponérselo fácil a los usuarios que quieren probar este S.O.

2. Hay que saber usar la consola de comandos

Mentira: los asistentes gráficos ya existen para virtualmente cualquier cosa, y aunque los linuxeros con experiencia no podrían vivir sin un buen bash a sus espaldas, todas las tareas de configuración y el uso de todo tipo de aplicaciones se realiza gracias a las interfaces gráficas que estos sistemas proponen. De hecho, la consola de comandos no es algo aislado de Linux (GNU/Linux para los puristas). Windows tiene su propia consola o su versión avanzada, llamada Powershell, y Mac OS X también presume de su propia consola gracias a su base BSD.

3. Hay que compilarlo todo

De nuevo falso: es cierto que los usuarios más puristas prefieren a menudo compilárselo todo para controlar todo el proceso de instalación de aplicaciones, pero desde hace años los gestores de paquetes hacen que los usuarios tan sólo tengan que invocar un comando de instalación de cierto paquete para instalarlo, o lo que es más fácil aún, hacer uso de los gestores gráficos (YaST en openSUSE, Synaptic en Ubuntu, etc) para instalar todo tipo de aplicaciones. La llegada del sistema PackageKit está siendo especialmente importante en la unificación de estos gestores, y si hay algo sencillo de hacer en Linux, es instalar y desinstalar aplicaciones. Y si te las quieres compilar, bajas el código fuente ¡y listo!

4. Hay pocas aplicaciones en Linux

Curiosamente, parece haber una sensación entre el público no conocedor de este sistema operativo de que una vez lo instalen no van a encontrar la aplicación que necesitan. En realidad ocurre todo lo contrario: probablemente tengan dificultades para elegir alguna de las muchas opciones que pueden resolver su problema. Si por algo se caracteriza Linux es por la gran cantidad de opciones en desarrollos software que existen para un gran número de tareas, de modo que la falta de aplicaciones no es un problema, desde luego. Lo que sí puede ocurrir es que ciertas tareas estén mejor resueltas en Windows o Mac OS X por la veteranía de los desarrolladores, e incluso puede haber aplicaciones a medida que no tengan su equivalente en el mundo Linux, pero en general si buscas, encontrarás, como demuestran los portales en los que podremos encontrar aplicaciones Windows y sus equivalentes en Linux.

5. No puedo reproducir películas

Es cierto que la mayoría de “distros” no incluyen soporte para códecs de audio y vídeo, pero los repositorios de esas distribuciones se encargan de solventar el problema. Los desarrolladores se curan en salud con temas de licencias para usar ciertos formatos no incluyéndolos de serie, pero los reproductores de Linux son capaces de descargar el códec de forma automática, y también podemos instalar soluciones como VLC, MPlayer y Xine para archivos de vídeo y Amarok, Banshee, Listen y otros muchos para resolver posibles incompatibilidades de archivos de sonido.

De este modo, parece bastante evidente que los 5 grandes mitos de Linux no son tan importantes como algunos usuarios creen... Y si leyeran este tipo de textos, quizás le darían una oportunidad a alguna distribución... Esperemos que así sea…