martes, 15 de febrero de 2011

Doce boletines de seguridad de Microsoft para febrero

La empresa publicó doce boletines de seguridad designados como MS11-003 a MS11-014, que solucionan veintidós vulnerabilidades y fueron graduados, según la propia clasificación de Microsoft, tres como críticos y nueve como importantes.

Boletines críticos

MS11-003: Actualización acumulativa para Microsoft Internet Explorer que soluciona cuatro nuevas vulnerabilidades que podrían permitir la ejecución remota de código arbitrario. Afecta a Internet Explorer 6, 7 y 8.

MS11-006: Actualización que soluciona una vulnerabilidad en el procesamiento de gráficos del shell de Windows que podría provocar la ejecución remota de código si un usuario visualiza una imagen miniatura (thumbnail) especialmente diseñada. Afecta a Microsoft Windows XP, Windows Server 2003, Windows Vista y Windows Server 2008.

MS11-007: Actualización que soluciona una vulnerabilidad en controlador Windows OpenType Compact Font Format (CFF) que podría permitir la ejecución remota de código si el usuario visualiza contenido con fuentes CFF especialmente manipuladas. Afecta a Microsoft Windows XP, Windows Server 2003, Windows Vista, Windows Server 2008 y Windows 7.


Boletines importantes

MS11-004: Actualización que soluciona una vulnerabilidad en el servicio FTP de Microsoft Internet Information Services (IIS) que podría permitir la ejecución remota de código si un servidor ftp recibe un comando ftp específicamente creado. Afecta a Microsoft Windows Vista, Windows Server 2008 y Windows 7.

MS11-005: Boletín Actualización que soluciona una vulnerabilidad de denegación de servicio en Active Directory bajo Windows Server 2003.

MS11-008: Actualización que soluciona dos vulnerabilidades en Microsoft Visio que podrían permitir la denegación de servicio si un usuario abre un archivo de Visio especialmente diseñado.

MS11-009: Actualización que soluciona una vulnerabilidad en los motores de scripting de JScript y VBScript que podrían permitir la obtención de información sensible si un usuario accede a un sitio web especialmente creado. Afecta a Windows 7 y Windows Server 2008.

MS11-010: Actualización que soluciona una vulnerabilidad elevación de privilegios a través del subsistema de tiempo de ejecución de cliente-servidor de Windows (Client/Server Run-time Subsystem, CSRSS). Afecta a Windows XP y Windows Server 2003.

MS11-011: Actualización que soluciona dos vulnerabilidades de elevación de privilegios en el kernel de Windows. Afecta a Microsoft Windows XP, Vista y Windows Server 2003 y 2008.

MS11-012: Actualización que soluciona cinco vulnerabilidades de elevación de privilegios a través de los controladores en modo kernel de Windows. Afecta a Microsoft Windows XP, Windows Server 2003, Windows Vista, 7 y Windows Server 2008.

MS11-013: Actualización que soluciona dos vulnerabilidades en Windows relacionadas con Kerberos que podrían permitir la elevación de privilegios en Windows XP, Windows Server 2003, Windows 7 y Windows Server 2008.

MS11-014: Boletín Actualización que soluciona una actualización para evitar una vulnerabilidad en el servicio de subsistema de autoridad de seguridad local (LSASS) que podría permitir la elevación de privilegios en Windows XP y Windows Server 2003.

Una nueva versión de Debian: ¿Irrelevante?

El blogger de ZDNet Steven J. Vaughan-Nichols recuerda que en un tiempo, el lanzamiento de una nueva versión de Debian era una importante noticia en los círculos linuxeros. Y asegura que aún lo es, pero la verdad es que su “pequeño hijo”, Ubuntu, es quien cada vez más gana los titulares. La razón es que Debian se ha ido perfilando como una distro para fanáticos, mientras que el resto intentó ser cada vez más amigable con el usuario.

Cuando miro las características del nuevo Debian, me doy cuenta por qué aunque sigue siendo popular como bloque de construcción de otras distribuciones Linux, ya no es tan importante como solía. Por ejemplo, las distribuciones Debian por defeto no incluirán ningún archivo binario de firmware propietario. Y aunque esto lo hará popular entre los fans del software libre que se resisten a morir, los usuarios que solo quieren utilizar su hardware wi-fi y obtener lo máximo de sus tarjetas gráficas no estarán felices.

Si, como es probable, usted tiene problemas de hardware al usar una PC o laptop con gráficos de alta gama, la instalación de Debian lo alertará del problema. Lo cual es bueno, pero por rutina no descargará automáticamente de la web el firmware faltante. Entonces, usted tendrá que detener la instalación para conseguir ese firmware desaparecido en acción, que será un firmware Debian no libre u el que provea el fabricante.

Esto es factible si uno es un usuario experimentado. Si no lo es, es un dolor de cabeza.

La teoría es que al hacer esto los usuarios enojados demandarán a los vendors de hardware que hagan open source sus drivers de dispositivos o, al menos, que dejen a los desarrolladores Linux escribir los propios para el hardware propietario. Pero en la práctica no funciona de ese modo.

Es verdad, más y más compañías están abriendo sus drivers, como Broadcom, fabricante OEM de equipos Wi-Fi. Pero el verdadero impulsor de esto no fueron los fans del software libre demandando drivers, sino los OEMs amigos de Linux como Dell demandando drivers open-source.

Al hacer esto, todo lo que Debian consigue es satisfacer a su base existente de usuarios de software libre y alienar a los posibles nuevos usuarios. En una similar vena, Debian continua usando Iceweasel 3.5.16, una versión de Firefox sin marca, y Icedove 3.0.11, una versión sin marca de Thunderbird, debido a que la organización Mozilla no dejaría a Debian o a sus usuarios tontear con sus marcas y logos.

Debian aún es importante. Sus desarrolladores han hecho un gran trabajo mezclando y combinando los componentes básicos de Linux y muchos programas open source en la versión más robusta y confiable, que otras distribuciones usan, como Ubuntu y MEPIS. Pero, aunque los programadores Linux continuarán apreciando a Debian, me parece que se está convirtiendo crecientemente en irrelevante para la gran comunidad de usuarios que Ubuntu, Mint, Fedora y openSUSE han traído al mundo Linux.

Los principales 10 proyectos Open Source comerciales

Puede que cada uno tenga una lista más o menos fija de los que considera los proyectos Open Source más importantes de la actualidad, pero también es interesante ver el tema o ese ranking desde otro punto de vista: el comercial. Es lo que han hecho en OpenLogic, una empresa que ha evaluado los más relevantes teniendo en cuenta los planes de soporte contratados por las empresas que utilizan dichos proyectos. A más ingresos por planes de soporte, más significativo se consideró el proyecto en cuestión. He aquí el listado.

JBoss es un Servidor de Aplicaciones Java EE de Software Libre implementado en Java puro. Los principales desarrolladores trabajaban para una empresa de servicios, JBoss Inc., adquirida por Red Hat en Abril del 2006, fundada por Marc Fleury, el creador de la primera versión de JBoss. El proyecto está apoyado por una red mundial de colaboradores. Los ingresos de la empresa están basados en un modelo de negocio de servicios. Combinando una arquitectura orientada a servicios con una licencia de código abierto, JBoss AS puede ser descargado, utilizado, incrustado, y distribuido sin restricciones de licencia. Por este motivo es la plataforma más popular de middleware para desarrolladores, vendors independientes de software y, también, grandes empresas.

Tomcat (también llamado Jakarta Tomcat o Apache Tomcat) funciona como un contenedor de servlets desarrollado bajo el proyecto Jakarta en la Apache Software Foundation. Tomcat implementa las especificaciones de los servlets y de JavaServer Pages (JSP) de Sun Microsystems. Es mantenido y desarrollado por miembros de la Apache Software Foundation y voluntarios independientes. Los usuarios disponen de libre acceso a su código fuente y a su forma binaria en los términos establecidos en la Apache Software Licence. Las primeras distribuciones de Tomcat fueron las versiones 3.0.x. Las versiones más recientes son las 7.x, que implementan las especificaciones de Servlet 3.0 y de JSP 2.2. A partir de la versión 4.0, Jakarta Tomcat utiliza el contenedor de servlets Catalina. Tomcat no es un servidor de aplicaciones, como JBoss o JOnAS. Incluye el compilador Jasper, que compila JSPs convirtiéndolas en servlets. El motor de servlets de Tomcat a menudo se presenta en combinación con el servidor web Apache.

Es un servidor web HTTP de código abierto para plataformas Unix (BSD, GNU/Linux, etc.), Microsoft Windows, Macintosh y otras, que implementa el protocolo HTTP/1.1 y la noción de sitio virtual. Cuando comenzó su desarrollo en 1995 se basó inicialmente en código del popular NCSA HTTPd 1.3, pero más tarde fue reescrito por completo. Su nombre se debe a que se deseaba que tuviese una connotación firme y enérgica, pero no agresiva, y la tribu Apache fue la última en rendirse al que pronto se convertiría en gobierno de EEUU y, en esos momentos, la preocupación de su grupo era que llegasen las empresas y "civilizasen" el paisaje que habían creado los primeros ingenieros de Internet. El servidor Apache se desarrolla dentro del proyecto HTTP Server (httpd) de la Apache Software Foundation.

Hibernate es una herramienta de Mapeo objeto-relacional (ORM) para la plataforma Java (y disponible también para .Net con el nombre de NHibernate) que facilita el mapeo de atributos entre una base de datos relacional tradicional y el modelo de objetos de una aplicación, mediante archivos declarativos (XML) o anotaciones en los beans de las entidades que permiten establecer estas relaciones. Hibernate es software libre, distribuido bajo los términos de la licencia GNU LGPL. Como todas las herramientas de su tipo, busca solucionar el problema de la diferencia entre los dos modelos de datos coexistentes en una aplicación: el usado en la memoria de la computadora (orientación a objetos) y el usado en las bases de datos (modelo relacional). Para lograr esto permite al desarrollador detallar cómo es su modelo de datos, qué relaciones existen y qué forma tienen.

Spring Framework es un framework que ayuda en aplicaciones java, para desarrollar más rápido, de forma más organizada y más eficientemente. En concreto se trata de manejar patrones de diseño como Factory, Abstract Factory, Builder, Decorator, Service Locator, etc; que son ampliamente reconocidos dentro de la industria del desarrollo de software. Una característica de Spring es que puede actuar como pegamento de integración entre diferentes APIs (JDBC, JNDI, etc.) y frameworks (por ejemplo entre Struts e iBatis). Está organizado por capas que pueden utilizarse conjuntamente o por separado.
Struts es una herramienta de soporte para el desarrollo de aplicaciones Web bajo el patrón MVC bajo la plataforma Java EE (Java Enterprise Edition). Struts se desarrollaba como parte del proyecto Jakarta de la Apache Software Foundation, pero actualmente es un proyecto independiente. Permite reducir el tiempo de desarrollo. Su carácter de "software libre" y su compatibilidad con todas las plataformas en las que Java Entreprise esté disponible lo convierten en una herramienta altamente disponible. Se basa en el Framework del Modelo-Vista-Controlador (MVC) el cual se utiliza ampliamente y es considerado de gran solidez. De acuerdo con este Framework, el procesamiento se separa en tres secciones diferenciadas llamadas el modelo, las vistas y el controlador. Con la versión 2 del framework se introdujeron algunas mejoras sobre la primera versión, de cara a simplificar las tareas más comunes en el desarrollo de aplicaciones web, así como mejorar su integración con AJAX, etc.

MySQL Community Server es una herramienta ideal para la creación de sus bases de datos a través del lenguaje SQL. Básicamente se compone por un servidor, útil para todo tipo de usuarios, tanto para los que recién se inician en el tema de programación SQL como los empresarios que quieren almacenar sus datos en un lugar seguro como una base de datos. Es una herramienta de código abierto que puede modificarse si es que se cuenta con los conocimientos necesarios para mejorar el código y de esta manera conseguir un mejor desempeño de sus bases de datos. Con este gestor de bases de datos podrá almacenar una gran cantidad de datos pudiendo hacer uso de varias bases de datos diferentes. Así pues, todos sus datos están dirigidos a través de consultas SQL que se pueden efectuar desde lenguajes de programación como PHP, Java, C++, Perl, Python, entre otras.

Subversion es un sistema de control de versiones diseñado específicamente para reemplazar al popular CVS. Es software libre bajo una licencia de tipo Apache/BSD y se le conoce también como svn por ser el nombre de la herramienta utilizada en la línea de órdenes. Una característica importante de Subversion es que, a diferencia de CVS, los archivos versionados no tienen cada uno un número de revisión independiente, en cambio, todo el repositorio tiene un único número de versión que identifica un estado común de todos los archivos del repositorio en un instante determinado. Subversion puede acceder al repositorio a través de redes, lo que le permite ser usado por personas que se encuentran en distintos equipos. A cierto nivel, la posibilidad de que varias personas puedan modificar y administrar el mismo conjunto de datos desde sus respectivas ubicaciones fomenta la colaboración. Se puede progresar más rápidamente sin un único conducto por el cual deban pasar todas las modificaciones. Y puesto que el trabajo se encuentra bajo el control de versiones, no hay razón para temer por que la calidad del mismo vaya a verse afectada —si se ha hecho un cambio incorrecto a los datos, simplemente deshaga ese cambio.

Apache Ant es una herramienta usada en programación para la realización de tareas mecánicas y repetitivas, normalmente durante la fase de compilación y construcción (build). Es similar a Make pero desarrollado en Java y requiere dicha plataforma. Tiene la ventaja de no depender de las órdenes del shell de cada sistema operativo, sino que se basa en archivos de configuración XML y clases Java para la realización de las distintas tareas, siendo idónea como solución multi-plataforma. Fue creado por James Duncan Davidson mientras realizaba la transformación de un proyecto de Sun Microsystems en Open Source (concretamente la implementación de Servlets y JSP de Sun que luego se llamaría Jakarta Tomcat). En un entorno cerrado, Make funcionaba correctamente bajo plataforma Solaris, pero para open source, donde no era posible determinar la plataforma bajo la que se iba a compilar, era necesaria otra forma de trabajar. Así nació Ant como un simple intérprete que tomaba un archivo XML para compilar Tomcat independientemente de la plataforma sobre la que operaba. A partir de este punto la herramienta fue adoptando nuevas funcionalidades y actualmente es un estándar en el mundo Java.

Log4j es una biblioteca open source, desarrollada en Java por la Apache Software Foundation, que permite a los desarrolladores de software elegir la salida y el nivel de granularidad de los mensajes o “logs” (logging) a tiempo de ejecución y no a tiempo de compilación como es comúnmente realizado. La configuración de salida y granularidad de los mensajes es realizada a tiempo de ejecución mediante el uso de archivos de configuración externos. Log4J ha sido implementado en otros lenguajes como: C, C++, C#, Perl, Python, Ruby y Eiffel.

viernes, 11 de febrero de 2011

Doodle de Thomas Alva Edison


Esta semana ha sido la de los Doodle de Google, primero fue el Doodle en Homenaje a Julio Verne, y ahora lo es para Thomas Alva Edison. Muchas de las comodidades de hoy en día se la debemos a este prolifero inventor estadounidense.

Como curiosidad, ahi que decir que solo fue a la escuela durante 3 meses, debido a la precaria situación económica tuvo que dejar la escuela para vender periódico. Pero durante sus tiempo libre se dedicaba a experimentar con aparatos mecánicos y eléctricos.

Pero su gran oportunidad, vino de la casualidad... Al salvar a un niño de las vías del tren en Port Huron, el padre de la criatura como agradecimiento le enseño Telegrafía y a los 16 años obtuvo un puesto como Telegráfista. Despues de trabajar en varias ciudades como telegrafista. Logro establecerse en la Westen Union de Boston, empresa con la cual vincularía estrechamente su destino

Gracias a la oportunidades de trabajar con una de las empresas más grades de telecomunicaciones de su epoca, tiene una acceso a las últimas tecnología y su capacidad inventiva se manifiesta. Su primera patente, La máquina automatizada para contar votos, no fue muy bien recibida en el Congreso Estadounidense. Ahí el veredicto fue brusco pero honesto: "Joven, si hay en la tierra algún invento que no queremos aquí, es exactamente el suyo. Uno de nuestros principales intereses es evitar fraudes en las votaciones, y su aparato no haría otra cosa que favorecerlos".

Pero eso no lo desanimo, y siempre hizo gala de la perseverancia. Cuenta una anecdota que un periódista fue a entrevistarlo cuando patento la bombilla eléctrica incandesente, si no lo habia desanimada el fracaso. A lo que respondio Edison: "No me equivoque mil veces para hacer una bombilla, descubri mil maneras de como no hacer una bombilla".

En su haber entre los inventos originales y las mejoras a otros inventos que patentó suman 1,093. Entre ellos destacan la invención del fonógrafo, la lampara eléctrica incandescente (cuya patente se refiere al mejoramiento de dicho aparato), el micrófono, el cinematógrafo (la primera cámara de cine), el cine sonoro, el mimeógrafo, la máquina de escribir, la pluma eléctrica, un contador de votos, el audífono, la batería alcalina de almacenamiento (llamada batería Edison); el bulbo, el dictáfono y el fluoroscopio.

En el campo de la telefonía y la telegrafía Edison realizó también nuevos inventos, mejoras y perfeccionamientos, que incluyen la aplicación práctica del teléfono gracias al micrófono o transmisor telefónico de carbón; el telégrafo cuádruple, un repetidor automático de telégrafo; el telégrafo impresor y un sistema telegráfico para comunicarse con los trenes en marcha.

En el campo de la electricidad descubrió la emisión de electrones por los metales incandescentes. Edison también se interesó por dínamos y motores.

Su inventiva era prodigiosa y su curiosidad inagotable, por lo que investigó e inventó en una enorme variedad de áreas. Sus intereses e investigaciones abarcaron también la fotografía, la preparación de cemento armado, la elaboración de tejidos impermeables, la producción de ácido carbólico y otros productos químicos y la concentración de minerales por métodos magnéticos.

Además, durante la Primera Guerra Mundial, Edison fue jefe del Cuerpo de Asesores Navales donde dirigió y sugirió la investigación de dispositivos antisubmarinos y torpedos.


Por ello, es muy bien merecido este homenaje de Google por 164° Aniversario por el nacimiento de este genial inventor, icono americano de la perseverancia.

martes, 8 de febrero de 2011

Doodle de Julio Verne en la página de Google


Como ya nos tiene acostumbrado la gente de Google, hoy amanecimos con un Doodle conmemorativo por el 183° Aniversario del Natalicio del visionario y escritor francés Julio Verne. El Doogle hace referencia a una sus obras mas emblemática "20.000 Lenguas de Viaje Submarino".

Debo confesar, que durante mi niñez lei gran variedad de sus novelas (bueno resúmenes juveniles de la novela). Y no es para menos, de los 70 novelas (8 de ellas de forma postumas, y 8 de ellas modificada por su hijo Michael Verne) que escribio, en casi todas de ellas presagio sobre inventos fantásticos para su epoca, pero 183 años después son utensillos comúnes de nuestro día a día.

De sus predicciones podemos contar: 

Naves espaciales (De la Tierra a la Luna)
Grandes Trasatlánticos (Una ciudad flotante)
Automóviles de combustión interna impulsado con gasolina (París en el siglo XX)
Trenes de Alta velocidad (París en el siglo XX)
Calculadoras Electrónicas (París en el siglo XX)
La Silla eléctrica (París en el siglo XX)

También se reconoce su visión de anticipar futuros descubrimientos y eventos históricos como:

El descubrimiento de las fuentes del Nilo (Cinco semanas en globo)
Gobiernos Totalitarios (Los quinientos millones de la begún).

Por ello, y muchas cosas mas, creo que es muy bien merecido el homenaje de Google hacia Julio Verne.

Fuente:

3 Sencillas forma de asegurar una conexión de invitado en tu empresa

Si existe algo en común con las empresas que reciben a clientes moviles, es que los mismos siempre desearan obtener una conexión  inhalambrica al Internet. Cada vez, son mas los clientes que me hacen esta pregunta "¿Como puedo asegurar la fiabilidad de los datos de mi empresa y dar conexión a Internet al mismo tiempo?"

Como consultor de tecnología, muchas veces empresas que ofrecen servicios tales como cadenas de hoteles, desean tambien ofrecer servicio de WiFi gratuito para sus clientes, perro asegurandose que no espien o tengan acceso a información de la empresa.

Por el otro lado, como asegurar la información de mi dispositivo para que no sea accesible a personas maliciosa dentro de una Host al que me conecte temporalmente.

Aqui esta 3 métodos que podrian ayudar:

Método 1: Crear una Red Secundaria

Se puede crear una Red Secundaria solo para uso de invitado, separada de la red principal y de los datos de la empresa. La teoría es muy simple: 
  1. Tener un Router principal que es el que conecta al internet, este router lo llamaremos Principal.
  2. Al Router Principal, le conectados 2 Router adicionales, que llamaremos Negocios e Invitados
  3. De esta manera, las computadoras de tu empresa las puedes conectar a Negocios; mientras que lo que utilicen el Internet de forma temporal pueden usar el Router Invitados
La ventaja de este método, es que las computadoras conectada al Router Negocios, solo podrán ver lo que ocurra en la Red de Negocios; y lo que ocurra en el Router de Invitados, solo sera visible entre las computadoras de la Red Invitados.

Si nuestro proveedor de Internet, nos da más de una dirección IP, no es necesario un Router como proveedor de Internet, simplemente podemos reemplazarlo con un Hub o un Switch.

Método 2: Crear una Virtual Local Area Network (VLAN)

Las VLANs nos permite segmentar nuestra Red corporativa y agruparla en base a servidores o clientes. Este es posible hacerlo sin tener que realizar nuevos tendidos de cable o hacer cambios mayores en la red. El tráfico de broadcast (que es el mensaje que se envía a todos los equipos de la red) solo será visible dentro del rango de la VLAN asignada.

Cada VLAN debe estar conectada a un Switch que soporte a VLAN, y se deben asignar cada puerto a un Grupo de la VLAN. En otra palabra, al dividir la Red, el broadcast de una VLAN no es afectada por el de otra VLAN dentro del mismo Switch y de esta manera puede tener ambas redes separadas.

Método 3: Crear una red inalambrica solo para tus clientes

Con los precios bajando para los Router inalambricos, tal vez puedas considerar crear una red inalambrica solo para tus clientes. El único problema es que si tienes más de una red inalambrica, debes considerar tener una contraseña para cada Router inalambrico adicional.

lunes, 7 de febrero de 2011

7 Tendencias del Cloud Computing en 2011

Las predicciones de CA Technologies sobre las tendencias tecnológicas top para el 2011 son:

1. Las nubes reinarán

No es sólo un avance más en la IT. Cloud computing representa un gran cambio de paradigma en la industria de IT y en cómo la tecnología va a transformar el negocio. En 2010, se habló mucho sobre cloud computing. En 2011, todo lo que se habló se convertirá en una realidad, y el cloud computing se empezará a convertir en la forma predominante que las organizaciones utilizarán, ya sea a través de nubes públicas, privadas o híbridas.


Las empresas descubrirán usos prácticos que les brindarán la flexibilidad y la velocidad que requieren, para satisfacer mejor las cambiantes necesidades del negocio. Además, el rol que juega la tecnología dentro de la empresa cambiará a medida que se implemente el cloud computing. IT se convertirá ahora en un gran controlador de negocios y será vital para el funcionamiento del negocio, desde las operaciones y las ventas hasta el branding. El nuevo rol del CIO será manejar estratégicamente la cadena de suministro IT tirando de los recursos según sea necesario: desde aplicaciones completas hasta cantidades masivas de capacidad de procesamiento basadas en la nube y en el almacenamiento de los datos. Cada vez más, el rol del departamento de IT tendrá menos que ver con el manejo de la tecnología y estará más relacionado con unir el negocio y el gobierno de IT. Al mismo tiempo, se espera que ejecutivos no técnicos y gerentes participen más en el área de tecnología.

2. Consumerización de la IT… “Hacia la nube”

La gran oleada de la tecnología de consumidor se hace cargo de la empresa. Ahora el negocio demanda velocidad, elección, seguridad, y tecnología ágil en la “punta de sus dedos”. La nube, la virtualización y los dispositivos móviles lo están haciendo posible. El profesional de IT necesitará moverse rápidamente para proveer la infraestructura necesaria y los servicios que sus usuarios demandan.

3. La gestión de la identidad y el manejo del acceso ofrecidos como servicios cambiarán la percepción de seguridad en la nube convirtiéndose de una barrera de adopción a un facilitador de la nube.

Las organizaciones cambiarán su percepción de la seguridad de la nube a medida que se implementen opciones de seguridad más fuertes y avanzadas como servicios de la nube provenientes de empresas que se especialicen en seguridad. Esta especialización ofrece un nivel de seguridad que muchas organizaciones no pueden alcanzar por sí mismas. Al hacerlo, aumenta la confianza en seguridad y hace de la seguridad un facilitador de la adopción de la nube. Por ejemplo, las capacidades de Gestión de la Identidad y Manejo del Acceso como autenticación avanzada y prevención del fraude, identificación única, gestión de la identidad y otras, son ofrecidas como servicios de la nube.

4. El mainframe forma parte de las estrategias de la nube.

Con su probada seguridad, confiabilidad y el poder del procesamiento, el mainframe comenzará a jugar un papel en las iniciativas de cloud computing. Dada la arquitectura híbrida del nuevo hardware zEnterprise de IBM, y la demanda de los negocios para alejarse de los manejos en silos para mejorar el tiempo de actividad de los servicios, también comenzaremos a ver los límites borrosos entre el mainframe y el uso distribuido de la plataforma en las aplicaciones.

5. Los dispositivos inteligentes desplazarán a las laptops.

La consumerización de la IT también significa que los dispositivos móviles inteligentes, como las tablets y los iPads, comenzarán a desplazar a las laptops como el dispositivo de elección para los empleados. Mientras muchas empresas han tratado de frenar el desarrollo de estos dispositivos su implementación, la demanda del usuario ha sido demasiado fuerte para ser resistida. Como resultado, la tecnología y los servicios serán distribuidos en formas diferentes y habrá una nueva serie de desafíos de IT, especialmente vinculados a la gestion de seguridad y autenticación.

6. La automatización es el arma secreta.

Muchos CIOs están todavía trabajando con los mismos presupuestos de hace tiempo y en algunos casos con presupuestos reducidos. Mientras tanto, la implementación de la virtualización requiere más habilidades, más personas, ciclos de tiempo más rápidos, y menos errores para superar el paraje de la virtualización y lograr ser exitosos. La automatización es la única manera de lidiar con este conflicto, acelerar la virtualización, y construir un centro de datos eficiente, rentable, y dinámico. El impulso detrás de la automatización de la infraestructura virtual, y la automatización de los servicios virtuales son también esenciales para cloud computing por lo tanto seguirán a todo vapor, generando resultados en 2011. Incluso podría eclipsar la virtualización misma como uno de los temas más candentes en IT.

7. Surgirán amenazas de seguridad de la información privilegiada.

Las amenazas internas de seguridad serán el próximo vector de ataque de seguridad para las empresas. Las amenazas de seguridad interna son particularmente importantes es una línea directa para los datos corporativos de alto nivel, valuados y lucrativos. Ahora, con las compañías abriéndose a nuevos sitios de redes sociales y aumentando la movilidad de los empleados, habrá más puntos de acceso por donde pueda escaparse información clasificada. Las organizaciones comenzarán a utilizar el análisis de comportamiento para predecir amenazas desde adentro.

Conclusiones

El Cloud Computing lleva con nosotros un tiempo, pero la seguridad todavía es vista como la barrera más grande para la adopción de cloud computing. Las empresas aún desconfían de su capacidad o de la de sus proveedores de servicios para adecuadamente asegurar sus datos en la nube, pero pronto cambiaran esa percepción. 

Para el 2011 en cuanto las empresas adoptaran medidas de seguridad más fuertes y avanzadas, pero tambien podemos esperar cloud computing especializadas de parte de los proveedores. Así, mientras el 2010 ha sido el año en el que se habló de la nube, el 2011 será el año en el que habrá acción sobre la nube.

Consiguen 150 Mbps en una prueba de LTE en Portugal

El operador de telefonía móvil Optimus y Huawei alcanzaron los 150 Mbps por usuario en una prueba de Long Term Evolution en la banda de 2,6 GHz, con velocidades de subida de hasta 60 Mbps, lo que demuestra la estabilidad y la capacidad de LTE para proporcionar una experiencia de banda ancha móvil sin precedentes al usuario final. El operador está embarcado en una ambiciosa renovación de su infraestructura.

Huawei anunció una exitosa prueba de LTE (Long Term Evolution) en conjunto con el operador de telefonía celular portugués Optimus en la banda de 2,6 GHz. La prueba consiguió unas velocidades de bajada de 150 Mbps por usuario, y de subida de 60 Mbps.

Optimus está embarcado en una ambiciosa actualización de su red móvil para adaptarse a los retos que supone la banda ancha móvil. Para este propósito Optimus seleccionó a principios de 2010 la solución de Huawei SingleRAN para modernizar su red GSM en Portugal, permitiendo en el futuro una rápida expansión hacia LTE. Bajo los términos del contrato, Huawei instalará estaciones base en 33 regiones. Hasta la fecha, Huawei ha desplegado más de 1.000 sites SingleRAN para Optimus.

La solución SingleRAN y las estaciones base multi-modo permitirán a Optimus adaptarse tanto a los requisitos actuales de los usuarios como a los del futuro, después de la modernización de la red GSM. La nueva red GSM/EDGE proporciona una mejora significativa en términos de rendimiento y coste total de propiedad, al mismo tiempo que proporciona una migración sencilla a LTE. Esta tecnología mejora los recursos del site y reduce los costos de despliegue de red, actualizaciones, operaciones y mantenimiento.

Las soluciones tienen un diseño “green” que permite ahorros de consumo energético de un 30% a un 70% en comparación con el equipamiento previo, lo que permite al operador reducir tanto la huella de carbono como el gasto energético.

Huawei ganó ya 26 contratos comerciales de LTE y colaboró con operadores líderes en Europa, Norteamérica, Asía Pacífico y Medio Este para desplegar alrededor de 100 redes de prueba 100 LTE/EPC en todo el mundo.

viernes, 4 de febrero de 2011

Monitoreo de Redes con Open Source

Una de las acciones más necesarias en cualquier sistema de seguridad informática es el monitoreo de la infraestructura. El problema es que no siempre se cuenta con un presupuesto como para encarar la compra de un producto o un servicio que solucione este problema. Por eso la pregunta que surgió en este intercambio en Linkedin es clave: ¿Que aplicación Open Source es la más recomendable para monitorear los equipos de red?

El primer aporte recomendó Spiceworks, que es una herramienta gratuita sin periodos de prueba; y también mencionó FreeNATS, NetTools Pro y NetLimiter 2 Monitor.

El segundo de los aportes se inclinó por Zentyal, una herramienta anteriormente conocida como eBox Platform, que es en un servidor de red unificada de código abierto (o una plataforma de red unificada) para las PYMEs. Puede actuar gestionando la infraestructura de red, como puerta de enlace a Internet (Gateway), gestionando las amenazas de seguridad (UTM), como servidor de oficina, como servidor de comunicaciones unificadas o una combinación de estas. Además, incluye un framework para facilitar el desarrollo de nuevos servicios basados en Unix.

El tercer aporte surgió de la evaluación de un proyecto que incluía entre sus requerimientos la gestión y monitorización de una red local de tamaño mediano. La investigación dio como resultado a Nagios (http://www.nagios.org/).

El cuarto aporte se centró en la estrategia, recomendando que se determine con exactitud lo que se desea monitorear y se busque la aplicación que más se ajuste a las necesidades específicas, ya que no todas hacen lo mismo con el mismo nivel, algunas son mejores monitoreando el procesador otras con las aplicaciones instaladas, otras más con el tráfico y los sitios web visitados, etc.

jueves, 3 de febrero de 2011

Crean una placa gráfica GeForce GTX 580 con 3 GB de memoria

La empresa Gainward, proveedora de placas gráficas premium, develó la primera placa basada en la GPU GeForce GTX 580 de Nvidia con 3 GB de memoria onboard. Se espera que el producto ofrezca una performance decente en resoluciones extremas con FSAA, brindando además beneficios en juegos futuros, en comparación con las GTX 580 comunes.

La placa gráfica Phantom GeForce GTX 580, de Gainward, está equipada con un chip GF110 corriendo a 783 MHz, con 512 procesadores de streams corriendo a 1566 MHz; un poco por encima del diseño de referencia del modelo 580 desarrollado por Nvidia. La principal ventaja de la placa Phantom es su buffer de cuadros, el cual tiene una capacidad de 3 GB; dos veces mayor que el diseño original de la empresa creadora de la GPU. Otro beneficio de la placa es su sistema de enfriamiento, el cual se basa en tres ventiladores y (según Gainward) es más eficiente que el diseño original de Nvidia.

El fabricante de placas asegura que los 3072 MB de memoria GDDR5 de su producto (corriendo a 4020 MHz) dan máximas ventajas en los juegos modernos corriendo en altas resoluciones con anti-aliasing de escena completa (FSAA, full-scene anti-aliasing). Según su fabricante, la Gainward GeForce GTX 580 Phantom ofrece una mejora de performance del 279 por ciento en “Metro 2033”, un 20 por ciento en “Crysis Warhead” y un 152 por ciento en “StarCraft 2”.

Gainward no dio a conocer el precio sugerido para su nuevo producto, pero es muy probable que sea superior a los U$S 500 que cuesta una placa GeForce GTX 580 común con 1,5 GB de memor

Gartner: “Si Page quisiera ser CEO en otra parte, no podría”


Eric Schmidt, quien fue contratado como CEO de Google en 2001, será reemplazado por el co-fundador Larry Page a principios de abril. Por su parte Schmidt, como presidente ejecutivo, se centrará en iniciativas externas tales como clientes, reuniones con organismos regulatorios y la negociación con partners. Mientras que Sergey Brin, el otro fundador, se centrará en “proyectos estratégicos” y, sobre todo, en nuevos productos. Los analistas se preguntan ¿a qué viene este cambio? ¿Está tratando Google de arreglar algo que presuntamente no está roto? ¿Podrá Page con semejante responsabilidad?

El objetivo final, según señalaron los tres protagonistas en una conference call con periodistas norteamericanos, es agilizar la toma de decisiones e hicieron hincapié en que Larry Page (38 años) está totalmente preparado para ser CEO. Según declararon, el cambio “mejorará los ya sólidos resultados financieros de Google, la innovación tecnológica y el crecimiento del negocio”. “Creo que Larry está listo”, comentó Schmidt en dicha ocasión. “Sus ideas son muy interesantes e inteligentes y es el momento de que tenga la oportunidad para hacer funcionar todo esto”. Page a su vez elogió el liderazgo del ahora ex CEO durante casi una década, y añadió que sus consejos como presidente ejecutivo serán de gran valor. “Los resultados hablan por sí mismos”, apuntó. “No hay nadie más en el universo que pueda lograr los que Eric ha conseguido”.

Sin embargo, los analistas tienen dudas. Se preguntan si Page estará a la altura para dirigir una empresa tan grande, poderosa y cada vez más diversa. “Supongo que la pregunta es si ser el CEO de Google es lugar adecuado para comenzar su entrenamiento ejecutivo. Puedo decir con seguridad que si Page fuese a solicitar el puesto de CEO a cualquier otro lugar, no lo conseguiría”, apunta Allen Weiner, analista de Gartner.

Cuando Schmidt se convirtió en CEO hace casi una década, Google era una prometedora pero pequeña compañía privada enfocada exclusivamente al buscador web, sin mucho más modelo de negocio del que hablar. Y es que, fue creada y liderada hasta entonces por Page y Brin, dos brillantes estudiantes de posgrado de la universidad de Standford con muy poca experiencia en gestión empresarial.

Schmidt, quien anteriormente fue CEO de Novell y CTO de Sun, ha sido la cara pública de Google gracias a su calma y su conducta relajada, mientras que la compañía se regía como un triunvirato con Page y Brin. Con los años, Schmidt ha ayudado a Google, fundada en 1998, a convertirse en una de las más grandes, exitosas e influyentes compañías que cotizan en bolsa en todo el mundo. “Schmidt tiene una gran trayectoria y ha dirigido Google con un gran éxito”, destacó Ray Valdés, otro analista de Gartner.

Valdés se pregunta además si lo que realmente ha pasado detrás de las cámaras es que Schmidt ha dimitido voluntariamente como consecuencia de la fatiga después de una intensa década, y que Page se hará cargo hasta que se encuentre un nuevo líder.

El analista y editor Danny Sullivan tiene un pensamiento muy similar al de Valdés. “Los dos fundadores no son muy apropiados para diversos eventos como ofrecer entrevistas a la prensa o conferencias. Y es que, parte de la función de Schmidt ha sido el ser la cara de confianza de Google para estas cosas. Pero haber tenido ese papel puede haberse cobrado un caro peaje”.

Nadie es perfecto
Sin embargo, Steve Arnold, analista de la firma ArnoldIT, ha criticado a Schmidt por haber dejado a Google demasiado dependiente de la publicidad del buscador. “No ha diversificado sus fuentes de ingresos de una manera significativa”.

Arnold también encuentra fallos en los comentarios públicos del CEO de Google durante 10 años alegando que en ocasiones ha alimentado controversias existentes. Además, va más allá y señala que la compañía ha tenido problemas para retener empleados con talento, dejándolos ir a Facebook y a nuevas empresas prometedoras.

Pero, a pesar de que Google sigue generando la mayor parte de sus ingresos de publicidad en sus páginas de resultados y sitios web asociados, la compañía ha extendido sus alas durante el mandato de Schmidt. Comenzó por complementar su servicio de búsqueda con otros servicios on line para consumidores, en ocasiones en mercados ya establecidos, como lo hizo con Gmail en 2004.

También se ha convertido en un actor clave en el mercado de la movilidad con su plataforma Android y con versiones móviles de sus diversos servicios y aplicaciones. Así, la compañía ha entrado en el mercado del software empresarial con Google Apps y su navegador Chrome, y su sistema operativo podría convertirse en un nuevo proveedor de informática personal.

Un gran reto para Page será luchar contra la gran influencia que ejercen los sitios de redes sociales como Facebook y Twitter, que han invadido parte del territorio de Google, tanto en publicidad como en difusión de contenidos on line. Y es que, “una de las cosas que faltan en la estrategia de Google ha sido el componente social”, declaró Weiner. “Creo que la capacidad de moverse hacia una importante estrategia de redes sociales puede ser más fácil para un CEO más joven”. De hecho, el fracaso en este campo puede haber sido provocado en parte por el CEO.

miércoles, 2 de febrero de 2011

AMD presenta la placa gráfica más poderosa del planeta

La empresa realizó una exhibición de la placa gráfica que apunta a adueñarse del título de la más poderosa del planeta. Basada en dos GPUs de las denominadas “Cayman”, la tarjeta promete brindar una performance excepcional en los juegos más exigentes, aún operando a altas resoluciones.

Rick Bergman, líder del grupo de productos de AMD, demostró la placa gráfica que apunta a reemplazar a la Radeon HD 5970. Se espera que el nuevo producto –denominado AMD Radeon HD 6990, o “Antilles”– ofrezca mayor performance que los integrantes de la generación anterior, gracias a sus dos GPUs de la familia “Cayman”, fabricadas bajo un proceso de 40nm.

La nueva placa presenta un tamaño considerable, pero es de suponer que cabe en la mayoría de los gabinetes utilizados por los entusiastas de la performance (a simple vista no parece más larga que la HD 5970).

Su sistema de enfriamiento presenta un diseño revolucionario, que hace uso de un “soplador” cilíndrico (que aplica el mismo principio que las cortinas de aire) para impulsar el aire desde la parte posterior del cooler y hacerlo circular a través de la compleja cámara de vapor que completa el disipador interno. En otras palabras, la placa carece de un hueco de entrada de aire donde suele estar ubicado, pero la parte posterior sirve a tal propósito. La energía es obtenida mediante dos conectores PCIe de 8 pines.

Se espera que AMD coloque la nueva placa en el mercado durante este trimestre.

Consejos para cuando hay que dar a los clientes malas noticias


Los médicos están entrenados en dar malas noticias. Pero la mayoría de los consultores de IT no. Así que deberían aprender algunas lecciones de los doctores, para usarlas a la hora de informar a sus clientes que sus workstations o servidores deben ser reemplazados, que inmediatamente deben dejar de usar software pirata o que hay datos críticos irremediablemente perdidos. Erik Eckel, blogger de TechRepublic, comparte con nosotros un proceso de seis pasos para hablar con los clientes de cuestiones así de catastróficas.

1: Prepare el escenario
Antes de empezar la discusión, pregunte al cliente quién más debería estar presente. Por ejemplo, el gerente financiero, el contador, u otra persona que deba estar en la habitación cuando se revisen los hallazgos y las recomendaciones.

2: Averigüe cuánto sabe ya el cliente
Sería bueno que usted supiera que el cliente ya sabe que ha estado usando el mismo controlador de dominios por nueve años, que no ha renovado las PCs en seis, o que nunca invirtió en sistemas de monitoreo o testing de backups.

3: Averigüe cuánto quiere realmente saber
Algunos clientes simplemente no quieren muchos detalles. Otros quieren saberlo todo. Usted puede ahorrar mucho tiempo de todos los involucrados dándose cuenta de cuanta información realmente necesitan saber.

4: Comparta la información
Explique qué se rompió y por qué (si se sabe). Sin emoción y sin decir “ya te lo había dicho”, describa su diagnóstico, muestre la evidencia que llevó a ese diagnóstico y haga afirmaciones cortas y sucintas. Evite la jerga técnica y deténgase con frecuencia para preguntar al cliente si entendió.

5: Responda a la reacción del cliente
Algunos clientes se ponen a llorar, otros a gritar, y otros preguntan cuánto costará y para cuándo estará listo el arreglo. Si los clientes parecen no tener reacción alguna, pregúnteles qué están pensando.

6: Determine pasos siguientes específicos
Usted debe decirles a los clientes cuáles son los siguientes pasos y los correspondientes costos de hacer frente a la crisis. Sin áreas grises. Los clientes deben tener un entendimiento claro de quién hará qué cosa en el tiempo prefijado.