martes, 31 de agosto de 2010

Día Internacional del Blog

Tal día como hoy, en el 2005 se celebro por primera vez El día Internacional del Blog, el cual fue ideal del blogger (persona que escribe en blog) israeli Nir Ofir. El por que el de esta fecha, por una simple razón el parecido de la fecha 3108 con lo palabra blog.

Para aquellas personas que están un poco perdida, déjeme recordarles que un blog, es una recopilación de articulos (o entrada como se le conoce en la blogosfera) ordenadas desde el articulo mas recientes hasta el ultimo.

En la actualidad, los blogs es una de las herramientas mas usadas por personas de cualquier estrato social para expresar su opinión de cualquier ambito, siendo utilizado por igual por doctores, estudiantes, artistas internacionales y cientificos.

Y como es tradición en este dia, colocare loe #5blogs que leo constantemente todos los dias:

El primer troyano de Android

Los expertos de Kaspersky Lab anunciaron que los teléfonos Android de Google acaban de recibir el ataque de su primer troyano designado como 'Trojan-SMS.AndroidOS.FakePlayer.a'. El mismo se envía por SMS haciéndose pasar por una aplicación inofensiva y, una vez instalado, envía mensajes de texto por SMS sin conocimiento ni aprobación por parte de los usuarios.

Todo comienza cuando a los usuarios se les solicita que instalen un pequeño archivo de unos 13 KB que tiene la extensión estándar de Android, .APK. 

Una vez que la falsa aplicación se instala en el dispositivo, el troyano que va incluido en ella comienza a enviar mensajes a números de teléfono de pago. Los delincuentes son los titulares de estos números, por lo que terminan recibiendo el dinero por medio de cobros en la cuenta de las víctimas. 

Según Denis Maslennikov, Investigador Senior de malware de Kaspersky Lab, ahora mismo no hay un número exacto de los dispositivos infectados, pero el brote actualmente es regional. Por ahora, sólo los usuarios rusos de Android realmente pueden perder dinero tras instalar el troyano, pero cualquiera puede quedar infectado. 

La decisión de dirigirlo contra dispositivos Android en particular responde a las tendencias de la industria de los móviles.

Los teléfonos son la próxima frontera de los virus

Una de las conferencias que mayor expectativa creó en el último congreso Black Hat realizado en Las Vegas, Estados Unidos fue titulada “Esta llamada telefónica le costará 90.000 dólares" a cargo de Mikko Hypponen, director científico de F-Secure, en la que anunció una ola de virus para teléfonos móviles que podrían tener como consecuencia que el usuario afectado recibiera facturas inconcebiblemente altas por sus llamadas.

El experto finlandés en virus y hacking Mikko Hypponen explicó: “Hay más teléfonos que PCs en este planeta, y lo más fácil es robar dinero desde celulares", agregando que la única razón de que no seamos testigos de tales ataques e intentos de fraude es que “sigue siendo más fácil hackear Windows XP, el sistema operativo más propagado del mundo". En otras palabras, para los cibercriminales sigue siendo más fácil usar XP como plataforma de acceso al dinero de sus víctimas, apuntó Hypponen en BlackHat. 

El experto agregó que en todos los casos observados de ciberdelito se utilizó ingeniería social; es decir, procedimientos mediante los cuales se induce al usuario a visitar un sitio web y digitar datos personales, claves de acceso o información financiera. “Sin embargo, es solo una cuestión de tiempo antes que veamos gusanos que entran a tu teléfono por la noche y se propagan hacia todos tus contactos", agregó Hypponen. 

La especulación del experto finlandés alcanzó un punto muy alto cuando combinó los escenarios de la explotación de la información recolectada por los delincuentes informáticos a través de medios libremente disponibles como las redes sociales, con lo podría llamarse la próxima generación de malware multiplataforma que también incluiría a los teléfonos móviles.

lunes, 30 de agosto de 2010

Las reglas del trabajo están cambiando

Después de la incertidumbre de la crisis, los empleados redefinen sus prioridades y modifican sus actitudes para vivir mejor. David Thompson, fundador de la firma consultora para el desarrollo de personas y organizaciones Beyond the Dots, explica en un artículo que las reglas del trabajo están cambiando y que las empresas y sus directivos tienen la opción de adaptarse a los nuevos tiempos.

Después de la crisis económica se han conocido numerosos estudios que han revelado diversos datos sobre la situación laboral, desde que se está presentando una guerra de talento o que las empresas no son conscientes del número real de trabajadores que planean renunciar durante 2010, hasta que los directivos cometieron errores fatales en sus reacciones a la crisis y perdieron mucho más que dinero: perdieron a sus mejores empleados debido a que no les demostraron lo valiosos que eran para la organización. Dejaron ir el talento, algo fundamental para cualquier negocio. 

A propósito de este tema, Management Issues publica un artículo de David Thompson, fundador de la firma consultora para el desarrollo de personas y organizaciones Beyond the Dots, en el que el autor asegura que las reglas del trabajo han cambiado radicalmente y que está en las organizaciones y sus directivos el cambiar con ellas o no. 

Como introducción, Thompson habla de ese ideal con el que sueñan la mayoría de las personas durante su niñez, de esa profesión en la que quisieran desempeñarse toda la vida, pero que muy pocos logran alcanzar debido a los problemas y las necesidades a las que se enfrentan en la realidad como tener que vivir de algo, sostener una familia, pagar las cuentas, etc. 


El autor menciona que no tiene nada de malo trabajar en algo para suplir las necesidades y que es precisamente ahí en donde los líderes y los directivos tienen que entrar a jugar un papel fundamental motivando y fomentando el compromiso de los empleados con una organización. Él subraya que el trillado lema según el cual “las personas son los bienes más valiosos de una compañía” es aplicado por muy pocos y que esto se hizo aún más evidente durante la pasada crisis económica. 

En busca de una vida mejor

Para nadie es un secreto que las reacciones de miles de empresarios alrededor del mundo a la crisis económica fueron, en un gran número de casos, erradas. El miedo a perder más de lo tolerable y a no sobrevivir como organizaciones los llevó a recortar al máximo todo aquello que les representara costos de los que podían prescindir, empezando por los empleados. Esta situación llevó a que millones de trabajadores en el mundo perdieran sus puestos y que otros más sufrieran por la incertidumbre durante períodos que se hicieron eternos. 

De ahí las afirmaciones de Thompson acerca de que los empleados se sintieron subvalorados y empezaron a repensar su situación. Ahora que la recuperación parece haber llegado a muchos rincones del planeta, estos mismos trabajadores que hace unos meses se esforzaban resignados para no perder sus empleos, hoy levantan la cabeza para redefinir sus prioridades y sus lealtades, y para buscar nuevas oportunidades que les ofrezcan una vida mejor y que los hagan felices. 

Algunos van tras los sueños que algún día abandonaron, otros analizan mejor qué tan importante es el trabajo en sus vidas, otros cambian de carrera, otros dejan excelentes puestos de trabajo y otros más deciden marcharse adonde alguien que sí valore su esfuerzo. El autor afirma que no se trata de una situación que deba sorprendernos y que el trabajo ahora está en las manos de los empleados. 

Según explica, “Para directivos y líderes, esto presenta un reto frente a todo lo que hemos llegado a comprender acerca de esos que trabajan para nosotros. Entonces, ¿lo hemos echado todo a perder? ¿Hemos llevado a nuestra gente al punto de haber tirado a un lado el manual de reglas, reevaluado lo que el trabajo realmente hace por ellos, y reacomodado totalmente el trabajo en sus vidas, al punto de que este ya no sea su prioridad?” 

Su respuesta es afirmativa. Pero, al mismo tiempo, él explica que no todo está perdido, sino que se trata de la oportunidad de entrar en un nuevo mundo lleno de retos, sobre todo para los directivos y los líderes de los negocios. 

Un nuevo mundo

El poner a las personas por encima de todo lo demás es la esencia de ese nuevo mundo que plantea Thompson. Algo que debió haber sucedido desde hace mucho tiempo. En sus palabras: “Este nuevo mundo nos pedirá que hagamos algo que muchos de nosotros no hemos hecho en un largo tiempo, si es que acaso lo hemos hecho: poner a nuestra gente primero. Pensar, pensar realmente, en ellos –como personas, como individuos, como madres y padres, como personas con sueños. Sueños que no tienen que ver con hojas de cálculo”. 

Se trata de la humanización de las organizaciones y de sus negocios, una tendencia que venía presentándose lentamente y que algunos visionarios y valiosos líderes empezaron a implementar por iniciativa propia, creyendo firmemente en las bondades de proporcionar excelentes condiciones de trabajo a los empleados, de demostrarles lo valiosos que son y de motivarlos a trabajar y a estar comprometidos con lo que hacen. 

Se trata de un elemento fundamental dentro de cualquier equipo de trabajo compuesto por seres humanos. Cada persona tiene una vida por fuera de la oficina y ningún jefe puede desconocer este hecho si no quiere que se convierta en algo negativo para su negocio. 

Thompson explica que “Si hacemos que el trabajo de verdad funcione para nuestra gente –permitiendo que el trabajo que realizan para nosotros represente contribuciones reales a la vida que ellos están creando por fuera de la oficina-, entonces ellos se quedarán y darán lo mejor de sí mismos. Si escogemos no hacer eso –y es una opción-, ellos no harán ninguna de esas cosas.” 

Sin duda, la conclusión es que o las empresas empiezan a pensar más en el bienestar de sus empleados, a tenerlos más en cuenta en el momento de tomar decisiones que los involucren y a implementar estrategias que los beneficien, o serán los negocios los que se convertirán en los mayores perdedores en medio de la recuperación económica y en el futuro.

¿Cuáles son las profesiones tecnológicas del futuro?

Google parece convencido de que las nuevas tecnologías y herramientas de colaboración van a contribuir a la creación de nuevas categorías de puestos de trabajo en las empresas. Según el informe "La Década Decisiva", realizado por The Future Foundation para Google Enterprise, y que analiza las formas de trabajo que habrá en el año 2020, los puestos de trabajo del futuro se encuadrarán en tres grandes categorías: departamento de creatividad y gestión de ideas, departamento de recursos humanos y departamento de información e innovación.

Dentro del departamento de creatividad y gestión de ideas figura el “gerente de ideas”, que será el encargado de fomentar y alentar nuevas ideas en la empresa. Junto a él estará el “editor de ideas” (antiguo director creativo), cuya tarea es editar y regular el flujo de ideas en toda la compañía. El informe prevé también la aparición del “archivador creativo”, que será el encargado de "mantener un banco de ideas generadas en el seno de la compañía para su uso posterior". Por último, está el puesto del director de colaboración, responsable del desarrollo y mantenimiento de las redes colaborativas, que son las que crean un flujo de innovación. 

Según el informe, en el futuro va a aparecer el cargo de “director de sistemas humanos”, que será responsable del departamento surgido de la fusión del área recursos humanos y del área de tecnologías de la información. El estudio señala que esta división tendrá la función de integrar de forma perfecta el proceso de interacción entre personas y ordenadores. Otra figura nueva será el llamado “work-life balance manager”, encargado de asegurar a los empleados un equilibrio positivo entre el trabajo y su vida profesional. 

A su vez, el “iCulturista” será el responsable de "enlazar todos los aspectos de la vida; mantener el bienestar del empleado además de asegurar el trabajo y las redes personales. Según el informe, este puesto va a tener relevancia dado que deberá cuidar la cultura corporativa en un escenario de trabajo en el que los empleados van a estar destinados en diferentes oficinas. Finalmente, este departamento acogerá al “estratega de gestión del talento”, que tendrá un papel clave en la selección de los nuevos trabajadores. 

En el llamado departamento de información e innovación de las empresas, el informe de Google destaca al “director de seguridad del cloud computing”, que deberá encargarse de que la información de las compañías alojada en la 'nube' esté segura. Su importancia será mayor en un futuro dado que las empresas guardan cada vez más información en centros de datos situados fuera de las sedes corporativas y gestionados por terceras firmas. 

Otro de los puestos de este departamento va a ser el “director de flujos de información”, cuyo trabajo será asegurar que haya un flujo constante de información e innovación entre el personal, las redes, los colaboradores y los empresarios. Por último, según explica el informe de Google, estará el “presidente de innovación”, máximo responsable de que "haya un entendimiento profundo de la creatividad dentro del campo de la tecnología y de cómo esta última debería facilitar unamayor innovación y colaboración". 

El estudio de Google, que está basado en una encuesta hecha a 3.500 trabajadores de tecnologías de la información (TI) y recursos humanos de Reino Unido, EE UU, Alemania, Francia y Japón, advierte que con las herramientas de colaboración los lugares de trabajo van a registrar cambios drásticos. Además, señala que hay una gran correlación entre la colaboración y la innovación, lo que demuestra "que cuantas más oportunidades de colaborar se den a los empleados, más ideas aportarán éstos". Adrian Joseph, director general de Google Enterprise EMEA, cree que la colaboración online se está haciendo realidad en el lugar de trabajo, y añade que este fenómeno transformará las prácticas laborales tradicionales. 

No obstante, el informe advierte que muchas empresas deben adoptar tecnologías que facilitan la colaboración. Así, sólo el 12% de los encuestados expresó su satisfacción por la tecnología existente en su trabajo. Asimismo, más de la mitad de los directores de TI entrevistados advirtió que sus organizaciones no alcanzan su potencial con las herramientas colaborativas online disponibles actualmente, siendo los principales obstáculos la falta de visión de los directivos (43%) y la necesidad de inversión (41%). 

El informe advierte también sobre la necesidad de motivación al personal para que genere ideas. El 58% de los encuestados señala que estaría planteando ideas a sus jefes si pudieran ser recompensados por ello. 

15 años después de Windows 95

El 24 de agosto de 1995, Microsoft lanzó Windows 95. Brandon LeBlanc, blogger oficial de Microsoft para temas relacionados con sus sistemas operativos, recuerda que, en aquél entonces, con sólo 11 años de edad, ni se imaginaba que hoy estaría trabajando en Microsoft, y menos ayudando a contar la historia de Windows.

Brandon LeBlanc cuenta emocionado cuando su padre llevó a su casa un paquete de disquetes etiquetados como “Chicago” (nombre código de Windows 95) unos meses antes del lanzamiento del tan esperado sistema operativo de Microsoft, y también cuenta su excitación cuando por fin pudo ver el “nuevo” Windows funcionando en su HP Vectra.

El blogger destaca que gran parte de la excitación que se vivió hace 15 años con el lanzamiento de Windows 95 sigue viva hoy, con Windows 7 y su alto índice de satisfacción de usuarios. LeBlanc lleva su simpatía por Windows al terreno personal, al asociar los lanzamientos de las sucesivas versiones de este sistema operativo con momentos clave de su vida. Así lo explica en su blog: “Mi padre y yo compartimos el interés en Windows y en la PC, y [el lanzamiento de Windows 95] fue, creo yo, el momento más definitorio en un lazo afectivo con mi padre que fue creciendo con el paso de los años y con cada nuevo lanzamiento de Windows”. 

sábado, 28 de agosto de 2010

Guías de Seguridad para Redes 2.0

En el sitio español de la Red Social Sobre Seguridad Informática suele haber buenos intercambios de opiniones e información para los que buscan leer algo en castellano. Como ejemplo de información, uno de las últimas entradas hace referencia a un conjunto de guías de Seguridad Informática y de la Información para Redes 2.0 desarrolladas por el Instituto Nacional de Tecnologías de la Comunicación de España.

El Instituto Nacional de Tecnologías de la Comunicación (INTECO) a través de su Observatorio de la Seguridad de la Información y en colaboración la Universidad Politécnica de Madrid publicó la serie de 12 guías a las que hace referencia la Red Social Sobre Seguridad Informática, con el objetivo de ayudar a que los usuarios sepan como configurar adecuadamente la privacidad y mantener la seguridad de sus perfiles en las redes sociales más utilizadas. La iniciativa de INTECO no se ciñe exclusivamente a las redes sociales de ocio, sino que también se preocupó de las redes sociales con fines profesionales. 

Esto último es uno de los aspectos más elogiados en los comentarios. 
El análisis se estructura conforme a los tres momentos clave en los que es posible identificar riesgos para la seguridad y privacidad en este tipo de plataformas abiertas: 

- Alta como usuario. 
- Participación en la red social. 
- Baja del servicio. 

La información utilizada para la elaboración de estas guías ha sido directamente obtenida en los sitios web de cada una de las redes sociales analizadas. Tienen como finalidad ser una ayuda para los usuarios de estos servicios, sin pretender, en ningún caso, sustituir la información y soporte ofrecidos por parte de las propias plataformas. 

Las guías son las siguientes: 


Fuente:

martes, 17 de agosto de 2010

Los Sospechosos Habituales: Analisis de falla de Hardware (Parte I)

Como técnico de soporte tecnico de computadoras, siempre me consigo con una serie de fallas repetitivas y comunes dentro del area de diagnostico de hardware, yo los llamo Los Sospechosos Habituales, ya que siempre siguen un mismo patrón. Esta serie de 2 partes, tratara de enumerar las fallas comunes de los componente de hardware.

Fuente de Poder


Son los componente de hardware que mas llegan con falla al taller,  y siempre hay malas noticias con ellos, generalmente están quemados. Esto es debido generalmente a sobrevoltaje ya sea en la linea de entrada o al conectar muchos componente electrónicas (Varios Disco Duro, Varias Tarjetas PCI o PCI-Express, Varios Unidades Opticas, Multiples Dispositivos USB, etc). Por lo general se les reconoce por su fuerte olor a quemado emanando desde la parte posterior (la parte donde esta el ventilador trasero).



La buena noticia, es que si se pueden reparar en la gran mayoría de los casos, lo malo es que un técnico en electrónica le va querer cobrar casi que el 50% del precio de una nueva (por eso de la mano de obra y materiales), mi recomendación no boten su dinero, siempre he preferible comprar una nueva que cubra sus necesidades.



Disco Duro


Este es el componente que mas lloran los usuarios, ya que representa "su vida", aunque lo dicen en todos los manuales de computación, nadie hace caso a la máxima de RESPALDAR la información importante, y siempre me dice "es que yo iba a respaldar la próxima semana".

Los daños de Disco Duro se caracterizan por ser de 2 tipos:

  1. Mecánicas: Los disco Duros del tipo IDE, S-ATA, SCSI poseen 3 elementos que son indispensable para que funcionen, un motor paso a paso que esta incrustado dentro del disco duro, una tarjeta lógica que controla dicho motor y se encuentra en la parte inferior del mismo y los conectores traseros que es donde van el cable de datos y el de corriente. 
  2. Lógicos: Los disco duros, a nivel de sistema operativo están dividido en Sector de Arranque, Tabla de Partición, Particiones y Datos. 

El peor daño a un disco duro, es el del motor paso a paso, generalmente cuando mueves el disco en zig-zag en tu mano, debes escuchas como los platos del disco giran libremente o peor aun los cabezales, en esos casos podemos decir que el disco duro esta muerto.

En el caso de que tu disco duro no sea reconocido por el BIOS de la Tarjeta madre, posiblemente puede ser que la tarjeta lógica este dañado o quemada, esto también puede afectar al conector de datos e inclusive al conector de corriente,  la buena noticia es que si consigues una tarjeta lógica del mismo modelo, puedes volver acceder a tus datos.



En cuanto a los daños Lógicos, están muy unidos con los daños mecánicos, generalmente aparecen siempre aparecen los primeros antes que los mecánicos. Y su primer síntoma siempre son sectores dañados.

Un sector dañado no es mas que una región del disco duro que se ha desgastado por uso (los disco duro SSD no tienen este defecto), el sistema operativo al detectar dicha falla marca el sector como erróneo y trata de trasladar los datos recuperables a un nuevo sector, que es lo hace el CHKDSK cada vez que arranca tu computador.

Las particiones en ocasiones también se ven afectada por dichos errores y podemos decir que es el siguiente nivel de daño, ya que desaparecen los datos, pero permanecen allí. Existe herramienta que nos permiten recuperar desde los datos de la partición perdida, hasta la partición por completo. Pero mi recomendación, es siempre trasladar dicha información a un nuevo disco duro y revisar a fondo el disco duro para después reparticionar.

Una buena práctica es revisar nuestro disco duro al menos una vez al mes, el defragmentar los disco al menos una vez por semana también es una muy buena practica, ya que aparte de optimizar nuestro sistema, nos permite detectar a tiempo los sectores dañados y aplicar los debidos correctivos.

Conclusiones

Las fuente de poder y los disco duros, son los 2 componentes mas propensos a falla, tener una buena electricidad, comprar un UPS para nuestro computador, tener un regulador de voltaje y estar pendiente de ellos nos evitara sobresalto innecesario.

Para la segunda parte estaremos de los 3 casos mas difíciles de detectar de los sopechosos habituales: Memoria, Tarjeta Madre y Procesador.

Conectar una impresora USB a SAINT

Saint es uno de los programas de administracción y contabilidad mas utilizados en los entornos empresariales en venezuela. Su gran cantidad de opciones, facilidad de uso y rapidez lo han posicionado dentro de uno de los mejores programas informáticas durante años.

Lamentablemente, su única deficiencia es que esta desarrollado bajo el entorno de MSDOS, y aunque existe versiones para entornos Windows, no son tan potentes y versátiles como su hermano menor.

Debido a esta limitante, las impresoras de inyección a tinta quedan descartadas de entrada bajo este sistema.

Pero, existe un truco que permite conectar una impresora USB a SAINT (en realidad a cualquier programa basado en MSDOS)

Pasos a seguir

1. Entrar en las propiedades de la impresoras
2. Ir a la pestaña de Compartir



3. Seleccionar la opción "Compartir esta impresora" y en la caja de texto, escribir un nombre para la impresora, de preferencia un nombre corto menor a 8 caracteres. Una vez hecho, presionar aplicar y luego aceptar.

4. Nos vamos a una ventana del símbolo de sistema (Inicio - Ejecutar: CMD y presionar aceptar), dentro de la ventana de símbolo de sistema, escribir NET USE LPT1: \\[nombre de la computadora]\[nombre de la impresora en red] /persistent:yes. 

Por ejemplo: NET USE LPT1: \\IRAIDA-PC\HPSAINT /persistent:yes 


5. Si todo salio correctamente, debería aparecer un aviso como el siguiente


6. Ejecutar el Saint

Conclusiones

Este método lo que hace es redirigir todas las peticiones del puerto LPT1 o puerto paralelo a una impresora de red, donde la ruta de la impresora esta compuesto por \\[nombre de la computadora]\[nombre de la impresora en red], la opcion /PERSISTENT:YES lo que hace es permitir que la impresora siga compartida aunque cerremos la ventana.

Si son de los que usan constantemente el SAINT, yo recomendaría hacer un script para que el NET USE y que se cargue cada vez que entremos a la sesión de Windows.

lunes, 16 de agosto de 2010

Instalar exFAT en Ubuntu para lectura y escritura

exFAT (incorrectamente llamado en ocasiones FAT64) es un nuevo sistema de archivo de la gente de Microsoft para solventar las limitantes de su anterior sistema FAT32, actualmente es un sistema propietario con patente pendiente.

El sistema exFAT normalmente se utiliza en pendrive; fue introducido por primera vez con Windows Embedded CE 6.0, y estan incluida de forma nativa a partir Windows Vista (Windows 7 y Windows 2008 R2 también lo poseen); Windows XP y Windows 2003 no poseen soporte a dicho sistema de archivo, exeptuando a través de una actualización descargable (la cual no viene con Windows Update).

Pero en los sistemas basados en kernel Linux y MacOS no posee un modulo oficial, pero recientemente, la gente de Microsoft ha liberado White Paper para poder desarrollar driver de tercero (caso de Tuxera).

La comunidad de software libre también ha implementado una solución que permite Leer y Escribir a través de FUSE, aunque el proyecto se encuentra en estado beta, esta muy adelantado

¿Que ahi que hacer?
Solo debe abrir una consola de terminar, y seguir los siguientes paso:
sudo apt-get install subversion
sudo apt-get install scons
sudo apt-get install libfuse-dev
sudo apt-get install gcc
cd ~
svn co http://exfat.googlecode.com/svn/trunk/ exfat-read-only
cd exfat-read-only
scons
sudo scons install
cd ..
rm –rf exfat-read-only
sudo mkdir [mountpoint]
sudo mount –t exfat-fuse [device_path] [mountpoint]
Solo ahi que reemplazar [device_path] con la ruta de la partición exFAT, por ejemplo: /dev/sdb1. Reemplaza [mountpoint] con la ruta de tu punto de montaje, por ejemplo: /media/

viernes, 13 de agosto de 2010

Del open source al open core, un debate en puerta

El así llamado software open core es, esencialmente, un subconjunto del open source. Se trata de que el vendor dé una versión gratuita y libre bajo una licencia abierta tradicional, pero venda otra con más funcionalidades pero bajo un modelo comercial y cerrado. Los oponentes dicen que es como regalar un coche sin la llave y luego tratar de cobrar por ésta lo mismo que costaría el vehículo entero. Los proponentes, en cambio, argumentan que balancea los derechos de los usuarios con las aspiraciones de ganancias de los vendors.

Unos cinco años atrás, el open source basaba sus ganancias principalmente en un modelo de suscripciones. El software en sí, con todas sus funcionalidades, estaba disponible para todos los usuarios, pero aquellos que pagaran adquirían derecho a recibir soporte profesional. Este modelo, por supuesto, aún tiene mucho futuro. Sin embargo, algunos vendors han visto que es difícil de sostener, porque alrededor de un 15 por ciento de los usuarios pagos no renuevan sus suscripciones anuales de productos y, por lo tanto, dejan para siempre de aportar dinero a la empresa. 

Así, de a poco, el modelo llamado open core fue tomando impulso, ya que usualmente incluye términos contractuales que impiden al usuario seguir utilizando el producto si deja de pagar la suscripción. En muchos casos, incluso, el código fuente de la versión completa que se vende no está disponible. 

El licenciamiento open core consiste en distribuir un núcleo abierto, típicamente bajo GPL, y vender extensiones 100% privativas alrededor de ese núcleo. El problema empieza cuando el software en cuestión no tiene mayor utilidad sin las extensiones. En ese caso, las opciones para el usuario son: dejar de utilizar el software, o pagar una versión del mismo que generalmente ya no es de código abierto. 

Más aún, para usar esas funcionalidades adicionales, el cliente se ve forzado a depender de un solo proveedor. No tiene alternativa, salvo la usual “tómelo o déjelo”. 

Del lado del vendor, aunque parezca un modelo conveniente, puede no serlo tanto. Para empezar, cualquiera puede hacer un “fork” del núcleo libre ofrecido, con lo cual será más difícil competir en el mercado. Nada impide a otros desarrollar y distribuir gratis las funcionalidades que usted pensaba ofrecer cerradas y por un precio. Por otra parte, es improbable que logre generar una comunidad de desarrolladores alrededor de su plataforma, si se sabe que la versión mejorada no será abierta y libre. 

Por cierto, la Linux Foundation no mira con mucho optimismo el futuro del open core. Como dice en un blog reciente dentro de su página, “cuanto más se diferencie su versión propietaria de la open source, más obvio será que el efecto open source no estará contribuyendo a la versión propietaria. Y cuanto menos se diferencien, menos razones habrá para comprar la versión propietaria. Es una tabla estrecha sobre la cual caminar. Si la gente del open core logra averiguar cómo hacer equilibrio en la cuerda, y hacer montones de dinero, bien por ellos. Pero no tendrán éxito tratando de vender su versión propietaria como si fuera open source”. 

Intel alista su próxima plataforma de escritorio

Los chipsets Intel de la serie 6, conocidos como “Cougar Point” y destinados a acompañar a los microprocesadores “Sandy Bridge”, estarían previstos para salir al mercado a mediados de octubre de este año. En base a esto, puede suponerse que dichas CPUs estarán disponibles a principios de noviembre.

Según informa el sitio web DigiTimes, los fabricantes de motherboards se preparan para recibir las primeras entregas en volumen de los chipsets Intel de la serie 6 a partir del próximo 18 de octubre. Normalmente, a partir de la llegada de una nueva serie de chipsets, los fabricantes se toman varias semanas para fabricar las motherboards que los utilicen y distribuirlas entre los integradores de sistemas. Por tal motivo, es posible suponer que Intel comenzará a distribuir los microprocesadores “Sandy Bridge” a principios de noviembre. 

La primera camada de chips basados en la micro arquitectura Sandy Bridge estará orientada al consumidor de rango medio, y su lanzamiento formal se llevaría a cabo en la edición 2011 del evento Consumer Electronics Show (a llevarse a cabo durante el mes de enero). Intel lanzará sus nuevas CPUs como parte de la plataforma “Sugar Bay”, impulsada por los chipsets de la serie 6. 

Los primeros chips Sandy Bridge contendrán dos o cuatro núcleos con tecnologías Turbo Boost y Hyper-Threading, además de un procesador gráfico integrado que compartirá la pieza de silicio con los núcleos x86. Se presentarán en formato LGA1155 y sólo serán compatibles con plataformas basadas en la serie 6 de chipsets Intel. 

La característica clave de los chipsets Sandy Bridge será Intel AVX (Advanced Vector Extensions), la cual, al ser aprovechada por los desarrolladores de software, incrementará la performance de las operaciones de punto flotante, de procesamiento de medios y de cálculos matemáticos intensivos. 

El destino de las PCs de escritorio

Hace unos meses llevé mis perros al veterinario y noté un cambio importante en el consultorio de éste (más específicamente, en su escritorio): el espacio que antes ocupaba la PC ahora estaba lleno de instrumentos, medicamentos, folletos, recetarios y una diminuta netbook.

“¡Cómo se achicó la PC!”, le dije en broma al veterinario, y él me explicó las muchas razones de costo y de conveniencia por las que hizo el cambio de la voluminosa PC por la pequeña netbook. Además me hizo una breve comparación técnica entre las prestaciones de la netbook y las de su vieja PC, la cual –según me explicó– fue trasladada a su hogar “para que la empiecen a usar los chicos”. En comparación con la netbook, la pobre PC tiene muchas menos prestaciones, pero para la corta edad de sus nuevos dueños, resulta más que suficiente. Y a medida que vayan creciendo, se le irán actualizando componentes para que se vaya ajustando a las nuevas necesidades. 

Sin saberlo, el veterinario me ilustró con un ejemplo perfecto las tendencias del mercado de PCs. Las máquinas de escritorio están siendo reemplazadas por netbooks, pero sólo en aquellos lugares en los que ya no tenía sentido que estuvieran; por ejemplo, el escritorio de un veterinario. Donde sí tiene sentido que estén es en el hogar, volviéndose cada vez más poderosas y asumiendo el rol de centro de entretenimiento, ofreciendo juegos, música, películas e información útil para la educación y la familia. 

En otras palabras, las PCs de escritorio no están desapareciendo. Están asumiendo un papel distinto, quizás, y hasta más importante. Lo mismo dijo (obviamente, con más autoridad, con cifras que lo respaldan, etc.) Hernán Chapitel, country manager de Gigabyte para el Cono Sur. En el encuentro de resellers que hizo esta empresa hace un par de semanas en Buenos Aires, le pregunté si no planeaban diversificar sus negocios con otros productos además de motherboards. Y me contestó que no. Lo cual demuestra una gran confianza en el negocio de ensamblado de PCs. “No traten de competir por precio”, dijeron como cien veces los capos de Gigabyte a los medios y a los resellers. Y enfatizaron el hecho de diferenciarse por features, como USB 3.0, por ejemplo, aunque el producto final sea un poco más caro. 

Quién sabe, de aquí a unos años, es probable que el panorama cambie, pero por lo pronto, las PCs de escritorio (y, por ende, el negocio del ensamblado) tienen un lugar que las netbooks difícilmente puedan quitarle. Así que hay que apuntar a construir PCs potentes en lugar de equipos baratos, y tratar de convencer a los veterinarios (al igual que a cualquier otro usuario) para que actualicen las máquinas que antes ocupaban espacio en sus consultorios, convirtiéndolas en verdaderos centros de entretenimiento para toda la familia.

Dime con quien hablas y te diré qué comprar

Un grupo de investigadores liderado por la compañía de telecomunicaciones Telenor detectó que es posible orientar las campañas de marketing a partir de ciertos datos claves provenientes de los registros de llamadas de los usuarios móviles. Saber qué tipo de dispositivo se está utilizando, con quién se está hablando y el tiempo de duración de una llamada, por ejemplo, resultaría fundamental para inducir al consumidor a comprar un producto determinado.

Cada vez se escuchan más análisis sobre las posibilidades de marketing y los resultados que en este sentido se están obteniendo a través de las redes sociales en crecimiento. Paralelamente, un grupo de investigadores analizó un medio que ya se ha instaurado en la sociedad desde hace un tiempo y cómo utilizarlo para llegar a los compradores de manera más eficientes: el conocido teléfono celular, cuya penetración, especialmente en América Latina, es mayor que Internet.

Apoyados por Telenor, el principal proveedor de servicios móviles en todo el mundo, la investigación se analizó la posibilidad de que las empresas puedan orientar sus lanzamientos de marketing teniendo en cuenta algunos datos clave de sus clientes, como el tipo de dispositivo que están utilizando, con quién están hablando y el tiempo de duración de las llamadas.

Sobre el estudio de miles de millones de registros, el grupo logró confeccionar un mapa basado en las relaciones sociales entre las personas a partir de la distribución del iPhone en el año 2007. Para sorpresa de los investigadores, el análisis descubrió que los grupos socialmente conectados de los primeros en adquirir el iPhone colaboraron en difundir aún más el teléfono inteligente.

Así, una persona con un solo amigo poseedor de un iPhone era tres veces más propensa a poseer uno por sí misma que una persona cuyos amigos no tuvieran iPhone, y quienes tuvieran dos amigos poseedores de iPhones eran cinco veces o más propensas a obtener este dispositivo móvil.

Más que una llamada 

Un registro de detalle de llamadas (CDRs, por sus siglas en inglés) que suele tener un uso interno dentro de cada compañía es un archivo que contiene información sobre el tratamiento de una llamada: identidades de las fuentes y los destinos, duración, cantidad facturada por cada llamada, y tiempo de uso total en el período de facturación y tiempo libre restante, entre otros.

El estudio sobre la difusión que tuvo el iPhone de Apple en el público contó con la base de datos de CDRs de Telenor. En vez de medir el aumento de usuarios que utilizan iPhone a través del tiempo, el grupo de profesionales realizó un análisis de redes sociales (metodología que busca predecir el comportamiento de una red social y/o aproximar las estrategias de los nodos que la componen, mediante la aplicación de modelos extraídos de la teoría de redes sociales).

Los resultados fueron contundentes: no sólo se observó que la propagación de los iPhones estuvo claramente marcada por los círculos sociales, sino que también se diferenciaba de la forma en que otros aparatos y servicios recorrieron la base de clientes.

jueves, 12 de agosto de 2010

Adiós a los cables

Seguramente habrá escuchado a más de un cliente quejarse por la cantidad de cables que se acumulan en torno a sus equipos electrónicos. Para revertir esta situación, crearon un dispositivo que podría acabar con los cables entre aparatos, que podrá instalarse en hogares, oficinas e incluso coches para la emisión y recepción de señales. Descubre más detalles sobre esta innovación.

Científicos de la Universidad de Purdue, en Estados Unidos, han desarrollado un dispositivo que, en cinco años, dejará obsoletos los cables de los aparatos de comunicación de los hogares y de las oficinas.

Esto será posible gracias a que dicho aparato puede convertir pulsaciones láser ultrarrápidas en señales de radiofrecuencia, para transmitir y recibir señales desde una estación base conectada con el mundo exterior, lo que representaría un paso adelante para conseguir que los cables de los aparatos de comunicación de los hogares y de las oficinas queden obsoletos.

Por ejemplo, este descubrimiento permitirá que las emisiones de televisión en alta definición o las conexiones de los ordenadores sean transmitidas desde una estación base individual sin necesidad de utilizar la enorme cantidad de cables que hoy llenan las casas o los despachos.

Dicha estación base consistiría en una especie de ordenador que se encargaría de procesar toda la información necesaria, es decir, que funcionaría como punto de contacto que interactúa con el mundo exterior para recibir información y, en un futuro, también enviarla.

El aparato, además, es capaz de reducir las interferencias con que encuentran las continuas ondas de transmisiones convencionales de radiofrecuencia, procedentes de señales perdidas que rebotan contra las paredes o los objetos que se encuentran en las casas y oficinas.

Las pulsaciones láser de este dispositivo duran alrededor de 100 femtosegundos (unidad de tiempo que equivale a la milbillonésima parte de un segundo y que es el periodo de tiempo más pequeño medido hasta la fecha) y son procesadas utilizando una tecnología óptica pionera, desarrollada por este mismo grupo de investigadores. Así, permitirá generar las radiofrecuencias de gran amplitud de ancho de banda, necesarias para la transmisión de datos entre dispositivos.

En principio, la industria comercializaría aparatos que sólo reciban señales, para el tráfico de información en una única dirección (recepción), destinados a televisiones o monitores, por ejemplo. Esto se debe a que la unidad de emisión de datos aún es demasiado voluminosa.

Windows XP sigue dominando el mercado

Aún con las ventas récord de Windows 7, a Microsoft le está costando convencer a los usuarios de Windows XP de que actualicen sus sistemas a un sistema operativo más nuevo. Esta conclusión se desprende de un informe de la firma NetMarketShare, que compila estadísticas de uso de las tecnologías de Internet.

El informe de NetMarketShare muestra que la participación de mercado de Windows XP es de más del doble de la de Windows Vista y Windows 7 combinados. El informe también muestra que, por primera vez, Windows 7 superó a Vista, aunque los dos sistemas operativos se encuentran por debajo de la marca del 15 por ciento, mientras que XP se ubica en casi un 62 por ciento del grupo. Esta cifra es bastante impresionante para un sistema operativo cuyo lanzamiento data del año 2001. Pero paraMicrosoft, los usuarios de Windows XP implican pérdidas de ingresos potenciales. 

Hasta ahora, las tácticas usadas por Microsoft para incentivar a los usuarios a hacer el cambio tuvieron que ver principalmente con la reducción y la eventual cancelación del soporte para Windows XP. En algunos casos esta táctica tuvo éxito, y puede haber sido la principal causa de que Windows 7 haya superado a Vista en tan solo un año. Pero subsisten grupos de usuarios que se resisten a migrar, ya sea por que no pueden costear una actualización, o por que planean migrar recién cuando adquieran una nueva computadora, o sino simplemente por que prefieren a XP en lugar de las nuevas versiones de Windows. 

Para muchos, la resistencia a migrar a Vista se tornó en una igual resistencia a migrar a Windows 7. Por lo tanto, aunque Microsoft esté reportando ventas récord de su más reciente sistema operativo, podría llevarle años a Windows 7 superar a XP si mantiene su actual trayectoria.

Se viene la “Frankencamera” open source

Se lanzó una plataforma de software de fotografía digital llamada “Frankencamera”, que permite a los usuarios crear capacidades nuevas para las cámaras digitales. Ya está disponible como descarga gratuita para Nokia N900. Además, los investigadores a cargo han obtenido una subvención de un millón de dolares para empezar a construir una cámara profesional de un solo lente reflex (SLR), equipada con la nueva plataforma de software, para su distribución gratuita a profesores de fotografía computacional en todo Estados Unidos.

“Vamos con la Frankencamera pública”, dijo el profesor de ingeniería eléctrica Marc LeVoy de ciencia informática de Stanford, quien dirige el proyecto. “Estamos liberando código para que la gente pueda crear nuevas aplicaciones de imágenes en su N900s Nokia”. LeVoy dijo que espera que las cámaras estén disponibles dentro de un año. 

La fotografía computacional se refiere a las formas en que las computadoras pueden ampliar las capacidades de la imagen digital mediante la combinación de varias fotografías tomadas con diferentes ajustes de la cámara para crear una imagen que no podía tomarse en una sola vez, o con una cámara ordinaria. 

Algunas de estas nuevas formas de combinar las imágenes se pueden hacer en Photoshop u otro programa de este tipo, pero hasta ahora no se podía hacer dentro de la cámara, dijo LeVoy. Eso es porque las cámaras comerciales están cerradas al desarrollo por todos sus fabricantes. Frankencamera, por el contrario, trae la fotografía computacional directamente a la cámara, haciendo que la cámara sea una plataforma programable. 

Frankencamera comenzó en 2006 cuando LeVoy y Kari, miembro de Nokia que dirige un equipo de investigación de Nokia Research Center (NRC) de Palo Alto, y un ex investigador asociado en el laboratorio de LeVoy, motivado para que la fotografía computacional no fuera relegada al equipo de investigación en laboratorios académicos, como lo ha sido durante años. En su lugar, debe ser desarrollado para su uso en el campo de las cámaras portátiles, el consumidor. 

“Pensamos que era hora de hacer la investigación más ágil y obtener los resultados en pequeños factores de forma”, dijo Marc. “En NRC, creemos en un modelo de innovación abierta que permite a los consumidores y a los investigadores universitarios utilizar los algoritmos de investigación, y agregar sus propias capacidades para crear algo aún más interesante”. 

La plataforma Frankencamera expone todo el hardware fotográfico y de cómputo en la cámara -sensores de luz, destellos, el enfoque, persianas y procesadores de imagen -para el control de un programador a través de una interfaz de software. La interfaz es parte de un software “de pila” que agrupa a los elementos de programación familiar: un sistema operativo Linux y la ubicuidad del lenguaje C ++ de programación. 

“El N900 es un teléfono con cámara, pero se ejecuta con una versión de Linux casi tan completa como la que se instaló en los ordenadores personales “, dijo Marc. 

Para LeVoy, una pregunta clave es si los fabricantes comerciales – tanto de las cámaras y de una cámara dedicada a teléfonos inteligentes – también abrirán sus plataformas. 

“Lo que esperamos es que si convierte su cámara para ser programable añade valor a la cámara y esto podría cambiar toda la industria de las cámaras”, dijo LeVoy. 

Además de Nokia Research Center, la financiación proviene de Adobe Systems, Kodak, Hewlett -Packard y la compañía Walt Disney