| |
Cuando un Reseller se inicia en el negocio de la consultoría es muy importante que evite algunos errores comunes que pueden demorar, o arruinar el nacimiento de una nueva empresa. A continuación siete consejos que ofrece Gene Zaino, director de MBO Partners, una empresa norteamericana que se especializa, justamente, en ayudar a los "nuevos" consultores de tecnología en las fases iniciales de sus empresas. 1) Hay que evitar gastar en exceso Es muy común que un consultor novato comience a invertir dinero de una manera no inteligente y poco rendidora para el futuro de su negocio. Desde invertir en una decoración innecesaria para la oficina hasta gastar equivocadamente un excesivo presupuesto en acciones de marketing. 2) No ser demasiado generalistas En materia de consultoría la especialización es muy importante. Nadie puede saber todo, de todas las cosas y de todas las tecnologías; y mucho menos un consultor. Por eso es importante, desde el primer momento, definir claramente cuáles son los skills y competencias de los cuales hay que enfocarse y en cuales es conveniente de derivar un posible negocio a otro especialista. "A la hora de contratar un consultor, los clientes quieren especialistas en una tecnología, no generalistas para todo", es el lema que hay que seguir. 3) Ser entusiasta hasta en los detalles Este punto trata sobre algo clave: la pasión por el trabajo. Mostrar que uno se entusiasma con la tarea que requiere el cliente es parte de lo que debe hacer un consultor exitoso. El consejo es no hay que exhibir ante el cliente un excesivo bajo perfil sino mostrarse entusiasmado, positivo y confiado. 4) Aprender a definir los trabajos en forma apropiada Es muy fácil que en medio de un trabajo de consultoría un cliente proponga nuevos objetivos o tareas no relacionadas con lo oportunamente contratado. Hay que aprender a decir que no o completar el trabajo el final antes de acepatr y dedicarse a una nueva tarea. 5) Evitar hacer todo uno mismo Aún un consultor que trabaja para sus clientes en una tarea muy específica debe saber distinguir sus habilidades centrales de ciertos detalles del trabajo. Y llegado el caso no debe dudar en subcontratar algunas de las tareas a otros proveedores de su confianza. 6) No salir a buscar negocios Los consultores de tecnología raramente logran trabajos por avisos en los diarios o recibiendo llamadas telefónicas. La mayor parte de los contratos llegan por medio de contactos. Por lo tanto es muy importante ampliar los círculos donde uno se mueve social y profesionalmente y hay que romper con los circuitos profesionales donde sólo nos encontramos con colegas. 7) No exagerar el currículum personal y empresarial La reputación es importante pero también es clave no exagerar, y mucho menos inventar, detalles del Curriculum que puedan hacer que un cliente se forme una idea errónea de nuestra experiencia. Porque si ese cliente descubre una "mentirita" toda nuestra reputación se cae y será imposible levantarla. |
viernes, 23 de septiembre de 2011
Los 7 errores que un Reseller debe evitar al hacer consultoría
miércoles, 21 de septiembre de 2011
Hablemos sobre XenDesktop
| |
La nueva versión incorpora la tecnología Personal vDisk, adquirida recientemente con RingCube, lo que facilita el despliegue de escritorios virtuales altamente personalizados a un costo menor. La solución hace posible la creación de verdaderas “nubes de escritorios privadas”, con aplicaciones y escritorios virtuales con soporte enriquecido para voz, video y archivos multimedia a más de mil millones de dispositivos de usuario final, incluidos los móviles, remotos y de sucursales más demandantes. XenDesktop 5.5 presenta una mejora para su tecnología de experiencia de usuario, HDX, que permite entregar escritorios virtuales de alta definición hasta tres veces más rápido para usuarios de redes LAN y WAN por igual. Quienes estén extremadamente interesados en esta solución, pueden acceder a discusiones, comentarios, lanzamientos, aplicaciones relacionadas y un etcétera inimaginable de tan amplio a través del Twitter del producto: @xendesktop. Justifica una visita. |
Windows 8 soportará Hyper-V
| |
Se trata de una herramienta útil para desarrolladores y administradores de TI que necesitan cambiar entre múltiples entornos de prueba, sin costos adicionales, ya que podrán monitorizar sus máquinas virtuales a través de VM Console (VMConnect) o utilizando Remote Desktop Connection (RDC). En el primer caso, se proporcionará un sólo monitor con resolución de hasta 1600 x 1200 en color de 32 bits. Esta vista de consola también ofrecerá la posibilidad de ver el proceso de arranque y, con 4 GB de RAM, se podrán ejecutar 3 o 4 máquinas virtuales. Para una experiencia más completa, habrá que recurrir al RDC. Así, se aprovecharán ciertas capacidades presentes en el PC físico, como monitores múltiples, interfaces táctiles, altavoces o conectores USB. Asimismo, Hyper-V soportará discos virtuales .vhd y .vhdx para almacenamiento, que se podrán combinar con los físicos. Mientras que la función “Live Storage Move” permitirá mover archivos desde una unidad local a otra, a una memoria USB o a ficheros remotos compartidos sin necesidad de parar el funcionamiento de la máquina virtual. |
martes, 20 de septiembre de 2011
Los nuevos modelos de negocio de los juegos online revolucionan el mercado de las TIC
Los juegos multiplayer online están mostrando un nuevo camino de negocios para el sector de la tecnología. Es una oportundiad ligada a la movilidad y a la comercialización de servicios, en lugar de la tradicional venta de licencias y copias en CD.
Internet y los dispositivos móviles han generado nuevos modelos de negocio (del tipo Free2Play, virtual goods) que llevan a los Resellers a repensar su negocio y adaptarse una nueva relidad.
Los cada vez más exitosos juegos online muestran una nueva tendencia del sector de la tecnología donde los protagonistas son los dispositivos móviles, la comercialización como servicio y los "juegos en la Nube".
Y esto genera nuevos negocios que el Canal debe analizar para poder sumarse y rentabilizarlo.
Por lo pronto hay un importante cambio en el perfil de los usuarios de los videojuegos y la edad promedio de los aficionados ha subido hasta los 27 años en Europa mientras que en Estados Unidos, uno de cada cuatro jugadores ya supera los 50 años.
Desde el punto de vista empresarial y de negocios está claro que el juego virtual en tiempo real ha generado nuevos modelos que deben seguir tendencias tales como el Free2Play y la comercialización y monetización de "virtual goods", premios, cuentas Premium, etc, etc.
El paso de la compra de licencias de programas a formatos como el Free2Play, en el que los ingresos se obtienen por medio de la publicidad y las llamadas cuentas Premium, es realmente significativo para el negocio de la tecnología.
Además, la llegada del Free2Play y los micropagos han conseguido otro punto clave: disminuir la piratería, lo que hace que la penetración de estos nuevos formatos sea efectiva y deseable.
"La evolución de la percepción del juego online de producto a servicio, lo que ya empieza a conocerse como VaaS, permitirá el acceso a esta modalidad de entretenimiento desde la Nube.
Los juegos online, pueden convertirse así, en los próximos años, en los Fórmula1 de las TICs", resumió Asier Quesada fundador y CEO de Delirium Studios y expositor del encuentro profesional de "Juegos multijugador: enemigos y a la vez amigos".
lunes, 19 de septiembre de 2011
¿La virtualización como un problema?
Extreme Networks informó que la tecnología de virtualización transformó drásticamente las tecnologías de información, pero que a pesar de sus beneficios también creó problemas en las redes de los centros de datos debido a que la densidad de cómputo y la cantidad de máquinas virtuales por servidor físico, están aumentando rápidamente. Esta situación provoca que el intenso tráfico de información requiera una red robusta, flexible y automatizada que soporte este nuevo modelo.
La capacidad de almacenamiento y la convergencia de redes están mostrando la necesidad de contar con arquitecturas de red más confiables y de mayor rendimiento. Esto llevó a los distribuidores a desarrollar una arquitectura Ethernet con características especiales que se adapten a los nuevos requerimientos de las redes por el creciente volumen de servicios que reciben.
“Las tradicionales arquitecturas de red con múltiples niveles necesitarán evolucionar hacia una arquitectura más plana para hacer frente a los requisitos de escalamiento, dirigir el tráfico de manera más eficaz y los requisitos de latencia que demandará el cómputo en la nube en la generación siguiente”, señaló Francisco Villarreal, Consultor de Redes Senior de Extreme Networks Latinoamérica.
Muchos proveedores de servicios de telecomunicaciones tratan de evitar las tecnologías propietarias que conducen a un lento retorno de inversión y alto costo-beneficio, lo que traería el mensaje de que la mejor manera de operar es a través de tecnologías abiertas, no propietarias y basadas en estándares aceptados.
Otro factor también relacionado con los costos, es que el precio de un equipo 40GbE, en comparación con uno de 100 Gigabit Ethernet (GbE), es más accesible para los proveedores en la nube debido a que los servidores se están cambiando a 10GbE y la capa de acceso a la red también va por la ruta de los 10GbE.
Eso significa que la interconectividad de los conmutadores de datos de la capa de acceso en forma conjunta, se trasladarán a la tecnología 40 GbE colocándola como la más rentable.
Con el propósito de soportar la convergencia de redes y almacenamiento, la tecnología tipo Data Center Bridging (DCB) proporciona un mecanismo para separar el tráfico de una red Ethernet en distintas clases de tráfico cuyo flujo puede ser controlado individualmente. El ancho de banda garantizado también puede aplicarse a los diferentes tipos de tráfico individual. Esta tecnología proporciona un rendimiento predecible para diferentes tipos de almacenamiento en una red Ethernet típica. Data Center Bridging está disponible en las soluciones 10G y 40G.
Mito o realidad ¿Windows 8 puede arrancar en 5 segundos?
Microsoft comenzó a develar los primeros secretos de Windows 8 durante la conferencia para desarrolladores Build que se realizó en San Francisco, EE.UUU. Y una de las más llamativas es un video que Microsoft posteó en uno de sus blogs oficiales donde demuestra algo que ya se acerca al mundo de los mitos: una notebook común y corriente, con la primera beta de Windows 8, donde este SO arranca efectivamente y está listo para ser usado ¡en menos de 5 segundos!
Pocas operaciones en Windows son tan analizadas, medidas y criticadas como el booteo. Y es también una de las mejoras más pedidas es acelerar el tiempo de booteo. Por eso el equipo de desarrolladores de Windows 8 le puso gran énfasis a este punto.
Hasta ahora había una cantidad de rumores sobre el tema, pero durante la reciente conferencia para desarrolladores Build que Microsoft realizó en San Francisco, EE.UUU los responsables decidieron cortar por lo sano y mostrar el camino.
Así una directiva de la compañía posteó un video en uno de de los blogs oficiales donde se demuestra una notebook común y corriente sin su batería, y con la primera beta de Windows 8.
La ejecutiva conecta la batería, enciende la notebook y muestra que ¡en menos de 5 segundos!, el SO arranca efectivamente y ya está listo para ser usado.
martes, 13 de septiembre de 2011
FELIZ DIA DEL PROGRAMADOR
Desde el 2007, se viene realizando un movimiento para homenajear a esos especialista que se dedican a crear, depurar y mantener códigos en cualquier lenguaje que sea utilizado por un hardware. Así todos los 256º día del año se celebra con chistes tecnicos, o hablar en el lenguaje de programación que mas conozca.
Los programadores, es una de las principales actividades del mundo de la informatica, tambien son conocidos como desarrolladores de software (aunque esta denotación implique que trabajan en conjunto con otras personas generalmente relacionada con la informatica).
Los programadores, se pueden dividir en 2 categorias:
- Analista de Sistema: es el que por lo general recopila los datos y hace un analisis metodico para buscar una solucion mediante un sistema de información
- Programador: su unica función es tomar los datos analizado por el analista y convertirlo en codigo ejecutable para un sistema informatico.
Estrictamente hablando, la profesión de programador no conoce especialidades. No obstante, existen diversas ramas por las que se decantan los propios profesionales y que se ven reflejadas en la oferta de empleo. Así, es posible mencionar algunas:
- Programadores de mainframe: Aunque se cree extinta la actividad en los viejos grandes sistemas informáticos, lo cierto es que aún existen muchos en funcionamiento que requieren mantenimiento. La tecnología que manejan estos programadores es radicalmente distinta a la del resto, motivo por el que se puede considerar ésta como la rama más especializada. Entre sus conocimientos se cuenta COBOL, JCL, base de datos jerárquicas, etc.
- Programadores de "Nuevas Tecnologías": Esta es una rama que gira en torno a Internet, los nuevos servicios como la Web 2.0 y los negocios por medios electrónicos o e-commerce. Entre sus conocimientos destacan lenguajes del lado del servidor como Java, ASP, .NET, JSP, PHP, Ruby, Python o Perl, y lenguajes del lado de cliente como HTML, XHTML, CSS, Javascript ó AJAX (conjunto de tecnologías existentes como XML y Javascript).
- Programadores de Firmware y videojuegos: Destacan sus conocimientos de hardware, Microprocesadores, ensamblador y C.
- Programadores de sistemas abiertos: Rama asociada a la Arquitectura Cliente-Servidor. Requiere conocimientos de C, Pascal, etc.
¿Por que se realiza cada 256º dia del Año?
Un byte puede tener 256 posible valores, y los bytes son muy importante para los programadores. No tanto por que son requeridos por los programadores para trabajar, pero en los sistemas que desarrollan son partes fundamentales para comunicarse entre si.
lunes, 12 de septiembre de 2011
Las empresas y su afán de aferrarse al pasado
Para nadie es un secreto, que la tecnología avanza a pasos agigantados, lo que ayer nos parecía imposible, hoy en día es algo común y cotidiano. Servicios que hoy son tan comunes como Youtube, Facebook y Twitter hace menos de 10 años, era impensables.
A nivel de Sistemas Operativos, tampoco no hemos quedado atrás. Hace 10 años, se encontraba dominando en entornos de escritorio y empresas el Windows 2000 Profesional, su reinado se vio tambaleante ante el recien llegado Windows XP (he de confesar que nunca me llamo la atención esos colores carnavalesco de su interfaz). No fue sino hasta la salida del Windows XP Service Pack 2 que realmente empece a ver la ventajas de este sistema operativo con repecto a su predecesor.
Hoy en día, viéndolo en perspectiva, pienso que el verdadero motivo de mi migración de Windows 2000 a Windows XP Service Pack 2, fue el soporte para el nuevo hardware y mejoras en el rendimiento de la red. No soy persona que me gusta aferrarme al pasado, pero veo con tristeza que empresas que no buscan actualizarse o peor trabajan con la política de "Si funciona, es mejor no cambiarlo".
El primer choque por esta cultura, lo tuve de la mano de una empresa de gran prestigio en Venezuela, como lo es CANTV, que maneja el 80% de las comunicaciones del país. Al mes de haber salido oficialmente el Windows Vista, tuve un problema con la conectividad con dicho proveedor de servicio y al llamar al sistema de atención telefónica del cliente, a parte de su mala atención, me sorprendió su capacidad para aferrarse a las viejas tecnologias. Un resumen de la primera llamada fue la siguiente:
- El Windows Vista, no es soportado por CANTV
- Desconocimiento por completo del protocolo TCP/IP
- Desconocimiento de funciones de redes para consola de comando
El punto 1, podría pasar por alto debido a la reciente salida al mercado. Pero seamos honesto, para una empresa que monopoliza las comunicaciones del país ¿No pudo preveer la migración de algunos usuarios a este nuevo sistema operativo? ¿La empresa no pudo tener un Plan de Contigencia para preparar a algunos de sus operadores mas experimentado al nuevo Sistema Operativo?.
Mi segunda llamada no me fue mejor, este operador me dijo que no daba soporte a Sistema Operativo Linux, y en este punto creo que debido que Windows sobrepasa a Linux en el mundo de las computadoras de escritorio podemos dejar una interrogante al respecto.
Al final, en mi tercera llamada tuve que SIMULAR, que tenia Windows XP Service Pack 2 para solucionar el problema.
Aun hoy en dia, 5 años despues del incidente, y cuando llamo, a veces me toca algun operador que no sabe manejar Windows Vista e inclusive Windows 7 y en ocasiones debo SIMULAR que tengo Windows XP para poder solucionar los problemas.
Recientemente, tuve un choque aun peor con esta cultura de "Si funciona, déjalo asi", con la gente de SAINT, una casa de software que realiza Programas Administrativo de gran calidad para las empresas.
Debido a la mala instalación de un técnico malicioso, una empresa me contrata para una revisión general de sus computadoras. De los 6 equipos, solo uno se decidió que se iba a realizar una instalación desde 0, y casualmente era la computadora de la gerente.
La computadora en cuestión se trata un Core 2 Duo, con Windows 7 Ultimate, y la gerente esta encantada con ese Sistema Operativo, pues resulta que el personal técnico de SAINT sugirió que cambiáramos el Sistema Operativo por Windows XP Service Pack 3.
¿Como es posible que una empresa sugiera un Sistema Operativo cuyo soporte técnico online esta caducado? ¿Como es posible que dicha empresa recomiende un Sistema Operativo que fue creado hace 10 años, y cuyo arquitectura fue renovada por ultima vez hace 3 años y estara disponible hasta el 2014? ¿Como es posible que una empresa recomiende un Sistema Operativo que NO se encuentra a la venta?
La razón argumentada, por esta empresa es que algunas empresas utilizan Windows Modificado, y generalmente a dichas modificaciones le hacen faltan librerías esenciales para funcionar. Hablando con el personal técnico de SAINT, me comenta que existe muchas empresas que poseen ya sean versiones modificadas de Windows en medianas y grandes empresas, y que no migran al menos a un entorno puro sin modificaciones por cuestiones de practicas y de rapidez en la instalación.
Estos 2 ejemplos, solo es una muestra que se ven en muchas empresas que siguen aferrado al pasado, y es algo como Soporte Tecnico me consigo día a día, empresas que son reacia a migrar sus sistema operativo ya sea por falta de visión, falta de recursos económicos para entrenar al personal, o algo tan simple como no saber adaptarse al cambio.
Y en el mundo de la computación, que es tan dinámico y veloz, un atraso de un año no es una opción, es un suicidio competitivo.
viernes, 9 de septiembre de 2011
Google y OpenDNS presentan mejoras para acelerar la navegación
| |
Google y OpenDNS presentaron un proyecto común de colaboración conocido como Global Internet Speedup Initiative (Iniciativa Global de Aceleración de Internet) que se encuentra en fase de prueba y promete acelerar nuestra experiencia al navegar por Internet. El desafío de los sistemas de DNS, en particular cuando lidian con redes de distribución de contenido (CDN), es asignar el servidor más cercano para que provea dicho contenido. Pero esto no siempre es posible: como la negociación DNS para obtener la IP del destino deseado la realiza el servidor intermedio, las CDN detectan como origen de la petición a servidores que no necesariamente están cerca de quien emitió la petición original. Ante esto, la CDN responde, por ejemplo, con la IP de sus servidores para Estados Unidos, cuando la petición en realidad había sido formulada desde España. Esto ocasiona un deterioro en el rendimiento, porque se incrementa la latencia. Para solventarlo, se ideó una modificación del protocolo DNS que aprovecha las extensiones propuestas en la RFC 2671 para dotar de mayor inteligencia a la resolución de nombres. Global Internet Speedup Initiative, que todavía se encuentra en fase de borrador, se ayuda en la dirección original del cliente, que añade como un campo de datos más a la petición. También hay opciones que permiten mantener la privacidad de quien emitió la petición. Con ello, no importa que se utilicen las DNS de Google, ya que al ir la información del usuario adjunta como datos en la petición, si el servidor destino es compatible con esta nueva iniciativa podrá determinar correctamente desde dónde se quiere acceder realmente a sus contenidos y contestar con el servidor más cercano al cliente, minimizando la latencia y, por tanto, mejorando la velocidad de navegación. Por el momento, tanto Google como OpenDNS ya instalaron en sus sistemas esta nueva función, que han desarrollado junto a CDNetworks, EdgeCast, BitGravity y Akamai. Aunque todavía parece no estar claro cuánto impacto tendrá esto en el rendimiento real de la red, no es para nada descabellado que el IETF acabe adoptando esta técnica como un estándar que podrían adoptar también operadores, ya sea en su versión actual de borrador, o en la final. Si desea conocer mas sobre tema |
martes, 6 de septiembre de 2011
Todo sobre UEFI, el reemplazo del BIOS (parte I)
| |
UEFI es un esfuerzo comunitario llevado a cabo por un grupo de empresas de la industria de la PC, orientado principalmente a modernizar el proceso de booteo. Las máquinas con UEFI ya están entre nosotros, y muchas más se encuentran en preparación, aunque durante el proceso de transición a UEFI es de esperarse que la mayoría de las plataformas de firmware continúen soportando el booteo tradicional mediante BIOS, para admitir sistemas operativos no aptos para UEFI. La especificación UEFI (Unified Extensible Firmware Interface) define un nuevo modelo de interfaz entre los sistemas operativos y el firmware de las PCs. La interfaz está compuesta por tablas de datos que contienen información relativa a la plataforma, además de llamadas a servicios de booteo y de runtime que están disponibles para el sistema operativo y su cargador (loader). En conjunto, estos elementos brindan un entorno estándar para el booteo del sistema operativo y la ejecución de aplicaciones anteriores al arranque. Intel dio el puntapié inicial al desarrollo de UEFI con una especificación anterior, llamada EFI (Extensible Firmware Interface). Desde el año 2005, el desarrollo de EFI cesó a favor de la especificación UEFI –basada en EFI 1.10– la cual pasó a ser responsabilidad del Unified EFI Forum, un consorcio de empresas de la industria de la PC. UEFI no está restringida a ninguna arquitectura de procesador, y es capaz de funcionar sobre las implementaciones de BIOS tradicionales o bien en reemplazo de éstas. EFI se gestó durante el desarrollo de los primeros sistemas Itanium, a mediados de los 90. En aquel entonces, las limitaciones del BIOS eran inaceptables para las plataformas de servidor a las que apuntaba Itanium, por lo que comenzó un esfuerzo originalmente llamado Intel Boot Initiative, el cual más adelante fue rebautizado como EFI. En julio de 2005, Intel cesó el desarrollo de la especificación EFI en la versión 1.10 y lo dejó en manos del Unified EFI Forum, organización que continuó su desarrollo. La versión 2.1 de UEFI fue liberada en enero de 2007, agregando criptografía, autenticación de red y una arquitectura de interfaz de usuario conocida dentro de la especificación como Human Interface Infrastructure. Actualmente, UEFI va por la versión 2.3.1, aprobada en abril de 2011. Entre las ventajas que ofrece UEFI sobre el tradicional BIOS se encuentran la capacidad de bootear desde discos de gran capacidad (más de 2 TB), un proceso de booteo más veloz, arquitectura y drivers independientes del procesador, un entorno pre-sistema operativo flexible (que incluye capacidad de red) y un diseño modular. Algunas mejoras al BIOS hechas anteriormente a UEFI fueron incorporadas en la nueva especificación, como por ejemplo ACPI (Advanced Configuration and Power Interface) y SMBIOS (System Management BIOS). En los próximos capítulos veremos más detalles sobre este esperado reemplazo para el venerable BIOS. |
lunes, 5 de septiembre de 2011
Los 6 tips de IBM para preparar el Plan de Contigencias de una empresa
Tornados, inundaciones, sismos, huracanes y cenizas volcánicas son apenas algunos de los "regalos" que la naturaleza nos brinda con frecuencia y que pueden afectar gravemente la continuidad de las operaciones de cualquier compañía. IBM resumió en 6 consejos cuales son los puntos que hay que tener previstos antes de la eventual llegada de un desastre natural.
Las contingencias climáticas y los desastres naturales son cotidianos: terremotos, huracanes, cenizas volcánicas y muchas otras circunstancias imprevistas interfieren no sólo con la vida cotidiana de las personas sino también con la actividad laboral de cualquier compañía, grande o pequeña.
Por eso, todo responsable de tecnología, o directivo general de una empresa, tiene que tener preparado -y ensayado- un plan de acción previo a cualquier pronóstico problemático.
Los expertos de IBM generaron una lista de chequeo con seis tips para que cualquiera pueda verificar su grado de preparación ante de una contingencia:
1) Validar el Plan de Back-up.
Hay que verificar primero que tenemos un plan de respaldo de datos e información en marcha y luego considerar si el acceso a esa data es posible desde otro ubicación geográfica. Una posibilidad que está surgiendo en los últimos tiempos es recurrir a servicios en la nube para alojar los datos claves y permitir a cualquier organización responder a cualquier condición con una mínima interrupción en los procesos.
2) Considerar el impacto de un desastre en los empleados.
Hace ya tiempo que hay una coincidencia: el capital humano es el elemento principal de cualquier compañía y eso debe ser considerado en cualquier plan de contingencias. Pero con una salvedad: para cada integrante de la empresa su propio elemento central es la familia. Y por lo tanto la compañía debe considerar este dato en el caso de, por ejemplo, tener que mudarse a otra locación en forma temporaria. En ese caso es posible que también tenga que movilizaslos junto a su familia, con los correspondientes gastos y problemas asociados que deberán ser previamente considerados.
3) Las comunicaciones.
En segundo lugar, una vez considerado el punto del recurso humano, hay que desarrollar un sistema de comunicación entre personal de la empresa. Hay que tener pensado en forma previa como y con qué medios se comunicará la compañía con sus empleados, con sus clientes, con sus socios de negocios y proveedores tras un desastre natural.
4) El efecto dominó.
Tal como mostró el reciente accidente de la planta nuclear en Japón, un desastre regional puede terminar en otros eventos impensados. Así, un huracán no sólo provocará vientos y lluvias sino que también puede desatar una posterior inundación lo que, a su vez, puede agravar los cortes de energía de comunicaciones y causar cortes de rutas y complicaciones en la logística y el transporte.
5) Planear la duración de una catástrofe.
Al momento de pensar un plan de contingencias es necesario considerar el impacto que tendrá la duración de la interrupción de la vida cotidiana. Un huracán puede pasar en dos días, una inundación puede durar una semana, y la emisión de cenizas volcánicas varios meses. Cada uno de esos eventos tendrá un impacto en forma diferente en la operación de la compañía.
6) Pensamiento lateral.
Aunque los directivos de la empresa tengan a punto y actualizado un plan de contingencias es necesario considerar qué pasa con los proveedores de productos y servicios. Nuestra preparación podría no servir de nada si nos encontramos con que un proveedor crítico deja de operar durante semanas.
Esos elementos también deben ser considerados en un plan de recuperación de desastre.
USB 3.0 + SATA 600 = discos externos ultra rápidos
| |
Para responder a las crecientes necesidades de transferencia de datos y el constante aumento de escala de los datos almacenados, Renesas lanzó su SoC (system-on-chip) µPD720230, un chip que hace las veces de puente entre equipos con interfaz USB 3.0 y dispositivos de almacenamiento SATA-III. El SoC soporta velocidades de transferencia de hasta 5 Gb/seg., pudiendo alcanzar la máxima performance de transferencia de USB 3.0. El nuevo SoC soporta el protocolo UASP (USB Attached SCSI Protocol), el cual acelera significativamente el rendimiento de datos en grandes volúmenes. Al combinar esta característica con la tecnología de controlador de Renesas y los drivers UASP, se alcanzan nuevos récords en performance de transferencia, según afirma la empresa. El driver UASP opera con los chipsets A70M y A75 de AMD, lo cual se logró a través de una fuerte cooperación entre esta última y Renesas. Renesas marcó el camino en mayo de 2009 lanzando su controlador de host USB 3.0 µPD720200, comenzando la producción masiva de dicho chip en junio del mismo año. Desde entonces, los controladores de host USB 3.0 de Renesas han sido ampliamente adoptados por la industria. |
Suscribirse a:
Entradas (Atom)