lunes, 31 de mayo de 2010

Microsoft Office vs. Google Apps | la pelea por las empresas

En la batalla por tener el dominio del territorio de las suites de productividad en las empresas de hoy y el futuro, Microsoft y Google están dejando ver sus fortalezas y también sus debilidades.

En lo que respecta a Google, a pesar de que la ventaja en precio de las Google Apps y del anuncio de que ahora dos millones de compañías están utilizando Google Apps, varios datos de investigación muestran aún que Google va perdiendo en la empresa. La adopción de Google Apps no solo se encuentra muy por detrás de Microsoft, sino que también está a la saga de OpenOffice, e incluso de Lotus Symphony de IBM. Los ingresos estimados para Google Apps en 2009 son de 50 millones de dólares, una pequeña porción del fondo de 22 mil millones de dólares de la compañía.

Microsoft, mientras tanto, debe ser competitivo con Web Apps -pero no demasiado competitivo-, ya que estas aplicaciones presumiblemente manejarán muchos menos ingresos que su “gallina de los huevos de oro” de hace mucho tiempo, la tradicional suite Microsoft Office. En el año fiscal 2009, la división de negocios de Microsoft (de la cual Office es un gran componente) generó 18 mil 900 millones de dólares en ganancias. Microsoft también debe convencer a los clientes de que "entiende" el cómputo en la nube de la forma en que Google lo hace.

Si alguien tiene el dinero y el poder de marca hacia el consumidor para enfrentar a Microsoft, es Google, señalan los analistas. Pero aún hay muchas explicaciones que dar.

Web Apps en números
Hoy en día se le ofrece a la empresa una gran cantidad de herramientas de productividad: Está Microsoft Office, seguido por alternativas de menor costo o gratuitas como Lotus Symphony de IBM, y los productos de web Google Apps y Office Suite de Zoho, entre otros.

Sin embargo, aunque el navegador web debe ser la plataforma de cómputo más predominante tanto para consumidores finales como para empresas, el uso de alternativas basadas en la nube de las corporaciones -comparadas con Microsoft Office- se mantiene bajo, de acuerdo con datos recientes de Forrester Research.

En una encuesta de marzo realizada a 115 empresas estadounidenses y europeas, y tomadores de decisiones de tecnología de las PyMEs, Forrester señala que 81% están actualmente soportando Office 2007, mientras solo 4% está utilizando Google Apps.

Más aún, a pesar del elevado precio de Office 2010 en relación con las alternativas actuales, un tercio de los encuestados planea actualizarse a Office 2010 el próximo año, y un cuarto planea actualizar en los siguientes dos a tres años.

¿Cómo es que Google Apps tiene alguna opción contra Microsoft Office en la empresa? Quizás no enseguida, pero Google está en una buena posición para avanzar mientras la empresa cambia hacia la web, señalan los analistas de la industria.

"Google es una compañía web y tiene la mayoría de recursos para atraer a la empresa hacia la web", señala Sheri McLeish, analista en Forrester Research, añadiendo que "ambientes mezclados donde Google complementa a Microsoft son la ola del futuro".

Sin embargo, McLeish no está convencida aún de que Google esté completamente dedicado a la empresa, diciendo que mientras la interfaz de usuario limpia y simple de Google se ha popularizado con los consumidores finales, podría ser demasiado limitada para las empresas.

"Por ejemplo, Google Wave pareció una buena idea, pero necesitaba una masa crítica y no la consiguió", señala McLeish.

Google Apps y Office 2010: Precios y características
Google Apps
tiene un precio de 50 dólares por usuario por año que incluye Gmail con 25GB de almacenamiento, Google Docs (procesamiento de texto, hojas de cálculo y herramientas de creación de presentaciones) y otras aplicaciones como Google Sites y Google Talk. El antivirus Postini de Google y la protección contra spam también vienen con la suite. Hay una tarifa extra por almacenar mensajes de 13 a 33 dólares, dependiendo de la duración de almacenamiento que se necesita.

En abril pasado, Google rediseñó su herramienta de edición, Google Docs, para mejorar la velocidad y la colaboración en tiempo real, un área donde Google Apps triunfa sobre Office.

Del lado de Microsoft Office, el precio de la suite completa está entre los 150 a 680 dólares, dependiendo de cuál de sus muchas versiones esté buscando. Con Office 2010, Microsoft estará ofreciendo Office Web Apps, versiones en línea gratuitas -pero no completas- de Word, Excel, PowerPoint y OneNote.

Habrá tres versiones de Web Apps: Una para consumidores soportada por publicidad; una versión hospedada para empresas que pagan por cuentas hospedadas en Microsoft Online Services, el cual es alimentado por SharePoint; y una versión corporativa in-house para empresas con licencias por volumen para Microsoft Office y el servidor SharePoint.

Office 2010 fue lanzado para las empresas el 12 de mayo, pero Office Web Apps no están programadas para lanzarse hasta mediados de junio.

Microsoft también tiene BPOS (siglas en inglés de suite de productividad de negocios en línea) en su arsenal, una parte de los servicios de Microsoft Online que incluye versiones en línea de SharePoint, Exchange, Office Communications Server y Live Meeting por 10 dólares por usuario por mes para todas las cuatro aplicaciones.

Construido para la empresa vs. construido para la nube
A pesar de la ventaja de costo de Google Apps -una ventaja quizás aún más atractiva en un tiempo de recesión económica y en un tiempo cuando los consumidores están acostumbrados a las aplicaciones web para el cómputo en casa- la investigación de Forrester no son los únicos datos que muestran a Google rezagado por una milla en la carrera de adopción.

Una encuesta realizada a 800 administradores de TI a nivel mundial en enero de 2010 por ITIC (Information Technology Intelligence Corp.) muestra que 4% de los negocios están utilizando Google Apps para su correo electrónico principal y software de productividad. La encuesta también muestra que Google Apps es adoptado más ampliamente en pequeños negocios.

La barrera que Google debe penetrar, señala McLeish, es la vasta experiencia de Microsoft en servir y soportar empresas. "Microsoft ha establecido los cimientos en la empresa", señala. "Dice mucho que aún pueda demandar precios elevados por las versiones completas de Office cuando Google Apps es gratis o mucho más barata".

Microsoft es rápido en exclamar que es una compañía construida para los negocios, mientras que Google fue construida para los consumidores.

"Le preguntaremos a los clientes: ¿alguno de estos nuevos competidores está realmente comprometido con los servicios de productividad en línea para la empresa?", indica Ron Markezich, vicepresidente corporativo de Microsoft Online Services. "¿Están haciendo inversiones en la empresa a largo plazo? A Microsoft le ha tomado 15 años probar que estamos comprometidos con servir a las empresas y ahora, por supuesto, eso es una gran parte de nuestro negocio".

El gran temor: Canibalizar Office, fracasar en acabar con Google
Pero incluso con la pequeña presencia de Google en la empresa, aún es un nombre de marca gigante con bolsillos profundos y productos con los cuales la mayoría de consumidores (que también trabajan en empresas) están familiarizados, particularmente Gmail.

Podría no ser una verdadera amenaza a los clientes corporativos de Microsoft ahora, pero las aplicaciones de productividad basadas en nube de Google han forzado a Microsoft a cambiar su modelo de negocios. Microsoft ha creado versiones en línea de sus productos de software, bajado precios y debe justificar a sus clientes corporativos por qué deben pagar tantos dólares por Office y Exchange cuando podrían "volverse Google" y ahorrar dinero.

Esta nueva dinámica ha creado un conflicto difícil para Microsoft, en el cual tiene que promover aplicaciones basadas en nube para detrimento de su franquicia de productos de software de escritorio, dicen el veterano analista de tecnología, Roger Kay.

"Microsoft necesita ser exitoso con las aplicaciones web, pero no demasiado exitoso", señala Kay. "No están obteniendo ganancias completas de sus aplicaciones de nube, así que necesitan hacerlas suficientemente ligeras para que la gente se actualice al producto completo de paga, que es la ‘vaca lechera’ de Microsoft. Microsoft estará reacio a renunciar a cualquier cosa que le dé dinero".

Este acertijo no es sencillo de resolver para Microsoft, agrega Kay, añadiendo que el peor escenario para Microsoft es que Office Web Apps, Exchange y SharePoint Online despeguen y canibalicen el software cliente de Microsoft, sin llegar a acabar con Google Apps.

Google mismo concede que cualquier éxito de la noche a la mañana en la empresa no es realista, aunque se mantiene completamente comprometido con las corporaciones, citando el rápido crecimiento en el corto período de vida de tres años de Google Apps.

"Google Apps solo ha estado en el mercado desde el 2007 y hemos ido de cero a dos millones de usuarios de negocios", señala Rajen Sheth, administrador de producto senior de Google para Google Apps. "Hay tanto potencial aquí y estamos en esto a largo plazo".

Microsoft está tratando de migrar sus productos hacia un ambiente de nube, mientras que Google es fundamentalmente una compañía de nube, señala Sheth, y ha pasado por grandes dolores de cabeza para construir grandes data centers diseñados específicamente para aplicaciones ágiles basadas en web.

¿Irá Microsoft completamente por la nube, si no por Google?
Aun así, la realidad de la empresa actual es que Google Apps simplemente no son una tecnología de reemplazo al por mayor para Microsoft Office, señala Ted Schadler, vicepresidente y analista principal en Forrester Research.

"Podría ver empresas moverse a Google por correo electrónico, pero raramente las verá reemplazando Microsoft Office con Google Docs", indica Schadler, añadiendo que las características de colaboración de Google Apps, tales como Google Sites y Google Talk probablemente serán utilizadas solo para mejorar Microsoft Office.

"Google Apps continuará teniendo éxito con sus características de colaboración y móviles que aumenta a Office en la empresa. Pero no las veo desplazando a Microsoft Office en ninguna forma significativa", agrega.

Sin embargo, una cosa es segura: Google está invirtiendo fuertemente en su juego de nube empresarial y aunque pudiera no tener una masa crítica detrás de ella, ha forzado a Microsoft a ajustar su modelo de negocio entero.

Vale la pena preguntar: ¿Estaría Microsoft completamente metido en la nube si no hubiera habido un Google?

Escrito por: Shane O'Neill Infoworld

martes, 25 de mayo de 2010

Mitos de PC | 1, ¿Alguna vez has retirado tu memoria USB sin utilizar la función de "Quitar hardware con seguridad"?

¿Alguna vez has retirado tu memoria USB sin utilizar la función de "Quitar hardware con seguridad"?

Lo más común es que por prisa o por descuido todos lo hayamos hecho alguna vez, sin embargo, muchos afirman que si no retiras tu memoria mientras ésta se encuentre leyendo o escribiendo datos, no le pasará nada a tu información. Otros afirman que siempre debes desconectarla correctamente.

¿Es cierto que puedo perder mis datos si no retiro con seguridad mi USB de la computadora?

La respuesta es: Verdad!!!

Cuando una USB está conectada a la computadora ráfagas de corriente de entre 1.5 y 3V pasan de la computadora a la memoria USB. Éstas le permiten estar lista para ejecutar las funciones que el usuario necesite (grabar, formatear, etc), pero al momento de querer retirar la USB se debe ejecutar la orden de "Quitar hardware con seguridad", para que la computadora gire la instrucción de no seguir pasando corriente al puerto USB en dónde está conectada la memoria.

De no ser finalizada esta tarea y se extrae el dispositivo de la computadora, es muy probable que en ese momento estén pasando ráfagas de corriente y desalineen los códigos digitales dentro de la memoria USB; y dañen la información o generen un corto en la circuitería interna.


Así que ya lo sabes, de no quitar el hardware con seguridad, hay mucha probabilidad que en algún momento se dañe uno o varios de tus archivos. En caso de que no te haya pasado hasta el momento no esperes a que te pase y no te arriesgues a que pierdas datos importantes.

Mitos de PC | 2, :¿Es cierto que alguien puede espiar nuestras conversaciones del MSN desde otra PC?

El Messenger es una herramienta muy útil, tanto, que seguramente lo has utilizado para comunicar algo personal ¿Quién no lo ha hecho?. Por ello es probable que evites guardar las conversaciones en tu computadora, o en su caso las eliminas apenas y puedes, si es que compartes la PC con otro usuario.

¿Pero es verdad que es posible que alguien podría "robar" nuestras conversaciones del Messenger sin que nos demos cuenta, aún cuando no las guardemos en nuestra PC?

¿Es cierto que alguien puede espiar nuestras conversaciones de Hotmail MSN desde otra PC?

La respuesta es: Verdad!


Sí, esto no es un mito. Los criminales o las personas mal intencionadas usan dichas técnicas a menudo con el fin de obtener información sensible de los usuarios como sus contraseñas u otros datos que los podrían comprometer. A veces lo hacen a nivel del tráfico de red, es decir, desviando el tráfico a través de una máquina maliciosa o también por medio de un virus informático que recopila, graba y reenvía la información de las conversaciones a las personas malintencionadas.

Si deseas aumentar la seguridad de tu PC te recomiendo usar un Firewall y un Antivirus actualizado. En la actualidad hay múltiples opciones, tanto gratuitas como de paga, que te ayudarán a tener una PC bien protegida contra estetipo de softwares mal intencionados.

Mitos de PC | 3, ¿Puede un Virus informático dañar el Hardware de mi PC?

¿Puede un Virus informático dañar el Hardware de una computadora?

Cierto.

Aunque suene un poco descabellado, un virus en verdad puede dañar el disco duro de tu PC.

sí es posible crear un código malicioso que cause daños físicos al hardware del usuario. Sin embargo, esto no ha sido tan popular, ya que el objetivo de los criminales cibernéticos no es dañar, sino robar: robar las cosas que representan dinero o que sean dinero mismo. Por ejemplo, números y pins de las tarjetas de crédito o cuentas bancarias, etc.

Un caso famoso en su momento (2001) fue el del virus "Chernobyl",que en efecto dañaba las computadoras donde se alojaba. ¿Cómo afectaba a las PC? Simplemente dañaba el disco duro de las computadoras al grado de dejarlos inutilizables y sin manera de recuperar los datos del mismo.

Su funcionamiento era relativamente simple, pero muy peligroso. Se trataba de un archivo ejecutable que no sólo borraba los archivos, sino que además borraba las BIOS (sistema básico para cargar un sistema operativo) del disco duro, que en algunos casos, los dañaba permanentemente.

Este es sólo un ejemplo, pero en lo dicho, un virus puede dañar a tu PC físicamente hablando.

Como siempre recomiendo usar un programa antivirus actualizado en nuestra computadora para reducir el riesgo de un daño en nuestra PC o en nuetros datos.

Mitos de PC | 4, ¿Un procesador de doble núcleo duplica la velocidad ?

¿Un procesador de doble núcleo duplica la velocidad de mi computadora?

FALSO!!!

Un lector escribió solicitando información sobre qué computadora necesitaba comprar para editar videos. Comentaba que le habían sugerido una computadora con un procesador superior a 2 GHz, lo cual le confirmé que era una buena idea, pero a su vez me comentó que si era correcto adquirir un procesador de 1.1 GHz con doble núcleo para adquirir 2.2 GHz.

Un procesador de doble núcleo no significa que tendrá el doble de potencia que la marcada por el vendedor. Los procesadores de doble núcleo no duplican la velocidad del procesador, ya que cada uno es independiente; por lo que la frecuencia marcada por el fabricante es la misma para cada núcleo.

Un procesador de 2.0 GHz con doble núcleo tiene precisamente esa velocidad de procesamiento, pero no una frecuencia conjunta de 4 GHz.

¿Qué significa entonces que un procesador tenga dos o más núcleos?

Lo que hace que un procesador de más de un núcleo tenga un mejor desempeño es que ofrece la posibilidad de separar las tareas para que cada núcleo ejecute una. Realizar tareas en forma paralela da como resultado un mayor rendimiento comparado con los procesadores de un solo núcleo.

De necesitar la velocidad de 2GHz se debe adquirir un procesador con esa velocidad real, y de querer un mejor rendimiento puede buscarse un procesador con más de un núcleo. En el caso de tratarse de una computadora destinada a edición video, recomiendo se adquiera una buena tarjeta gráfica y ponerle más de 2GB en memoria RAM.

Mitos de PC | 5, Virus

Cuando un virus infecta tu computadora sólo basta con que se aloje en la partición del sistema para causar daño ¿pero acaso le bastará con quedarse ahí?

Por diversas razones muchos de nosotros tenemos nuestro disco duro particionado. Esto quiere decir que el total de nuestro disco duro podemos dividirlo en varias carpetas, que se detectan cada una como un disco duro independiente.

En una pregunta que llegó a mi mail se cuestionaba la posibilidad de que un virus pudiera propagarse en las demás particiones del disco duro. En teoría esto no tendría ningún caso, pues sería suficiente con que instalara en la partición que fuera utilizada como sistema del equipo.

Esto no quiere decir que no existan virus que se propaguen en las demás particiones de tu PC. Esta problemática depende de cada virus en particular. Hay programas de código malicioso que efectivamente para tener el control sobre el sistema del usuario no necesitan infectar todas las particiones sino sólo la del sistema.

Sin embargo, agrega que hay virus que tratan de infectar todos los archivos ejecutables donde sea que estén almacenados o también infectan todas las unidades (particiones), ya que éstas se usan por el virus como el principal medio de propagación para infectar otras máquinas. Como ejemplo, los virus informáticos que se difunden a través de las memorias USB.

Hay algunos antivirus que por default tienen la opción de escanear únicamente la carpeta del sistema. Asegúrate de revisar todas las particiones de tu computadora cuando ejecutes una limpieza general de tu equipo, en especial ahora que los virus han evolucionado a tal grado que los hackers buscan hacerlos lo más resistentes posibles. Además, hay que recordar que las unidades USB se han convertido en una de las principales fuentes de propagación de un virus.

Mitos de PC | 6, Rendimiento

Conforme vayas agregando datos y programas a tu computadora es lógico que su rendimiento gradualmente vaya disminuyendo, puesto que los recursos del equipo se irán invirtiendo poco a poco en los programas que vayas instalando. Aquí es cuando tal vez quieras aplicar el famoso consejo de eliminar espacio y aumentar la memoria RAM, que en algún momento escuchaste de alguien más. De hecho, hay que admitir que esto sí es una buena forma de ayudar a tu PC.

La memoria RAM nos sirve para almacenar de forma temporal información, por ejemplo, cada vez que abrimos un programa como puede ser una hoja de cálculo, ésta es puesta en la memoria RAM y los datos se mantienen de forma temporal hasta que le demos la opción de salvar, así, las modificaciones o cambios son guardados en el disco duro, por lo que mayor memoria nos puede ayudar a tener más programas abiertos o mayor información disponible para procesamiento dando la sensación de que el equipo aumenta su desempeño.

“Sin embargo, si queremos llevar a cabo cálculos, tales como incluir formulas matemáticas, tablas dinámicas, comparativas, etc., que necesiten procesar información, estas operaciones son llevadas a cabo por el CPU ya que esa es su función y una vez terminadas las regresa a la memoria RAM para su almacenamiento temporal, por lo que si contamos con un procesador con características multinúcleos y de una frecuencia mayor estos se ejecutaran mucho más rápido, ayudando a terminar las tareas en un menor tiempo mejorando el desempeño del equipo de computo, por lo que es mejor tener un procesador con mejores prestaciones para un mayor desempeño''.

En pocas palabras, aumentar los recursos de tu computadora ayudará a que aumente un poco su productividad, pero esto no quiere decir que sea capaz de ejecutar programas de última generación que requiera de exigentes características en hardware.

En caso de que desees instalar un editor de video, por mencionar algo, con liberar en espacio en disco duro no bastará para que éste trabaje de manera óptima.
con esto aclaramos el mito numero 6 de el rendimiento de la PC

La tecnología de los libros electrónicos


¿Se imagina poder leer las noticias o sus libros favoritos en una pantalla flexible y a color? Empresas especialistas están trabajando para que pronto sea posible.

La tecnología de los libros electrónicos no deja de avanzar. En concreto y para finales de año, varios fabricantes lanzarán nuevos lectores de e-books con una tecnología de pantalla sorprendente. La próxima generación de e-readers nos ofrecerá grandes innovaciones centradas en la capacidad de reproducir imágenes en color, en la visualización de contenidos en video y en el desarrollo de dispositivos aun más ligeros que los actuales, con pantallas flexibles (aunque todavía no podrán plegarse) y resistentes a golpes y caídas que sus predecesores.

Todas estas mejoras abrirán las puertas de una nueva era de contenidos para libros electrónicos: ya sean gráficos en color (pensemos en los libros de texto para niños) y contenidos en video (idóneo para revistas o periódicos electrónicos). Además, los nuevos dispositivos tendrán una durabilidad muy superior a sus antecesores. No podemos olvidar que, por el momento, las pantallas LCD de nuestros smart-phones o PC aún no están bien adaptadas para servir como sustitutas del papel, pues al estar retroiluminadas no se pueden leer durante mucho tiempo sin que fatiguen los ojos del usuario.

Las pantallas de E-Ink

La mayoría de los lectores de libros electrónicos que existen en el mercado utilizan unas pantallas denominadas de “papel electrónico” que son fabricadas por la compañía E-Ink (adquirida recientemente por la empresa taiwanesa Prime View Internacional, PVI). Los productos Vizplex de E-Ink se fabrican usando la electroforesis; en esta tecnología, pequeñas microcápsulas conteniendo partículas blancas y negras se suspenden en un fluido que queda sellado en el interior de una lámina de plástico que se lamina sobre un circuito electrónico.

Las partículas negras y blancas de esta tecnología responden de manera diferente a las cargas eléctricas negativas y positivas, de modo que la superficie de la pantalla mostrará blanco o negro dependiendo de cuales surjan y se hagan visibles.

Los fabricantes están aumentando sus esfuerzos para enriquecer la experiencia de usuario gracias a tres conceptos básicos: el diseño, el peso y la pantalla. De entre las mejoras, destacan su delgadez y su alta resolución, lo que permite obtener unas fuentes muy nítidas en un equipo tan fino y ligero. Además, las pantallas de E-Ink tienen un consumo energético bastante reducido, ya que no necesitan retroiluminación para visualizar el contenido, sino que funcionan con luz reflectante; es decir, que al igual que con el papel, necesitamos luz ambiental para visualizar la información de la pantalla. En concreto, un monitor de tinta electrónica gana contraste al ser iluminado por los rayos del sol, mientras que con la tecnología LCD es poco legible en estos entornos.

Existe otro motivo del por qué el “papel electrónico” consume menos energía que los LCD. La electroforesis nos proporciona pantallas biestables; es decir, que el sistema puede mantener una imagen sin la necesidad de estar encendido o apagado. Eso sí, sólo considera la última imagen que estábamos viendo justo antes de apagar el aparato. Es por eso que el consumo de la batería de estos lectores con pantallas de papel electrónico se mide según el número de páginas que puede ver el usuario.

Inconvenientes del papel electrónico

El principal defecto de esta tecnología es su elevado tiempo de respuesta; es decir, lo que tarda el dispositivo en cambiar el contenido de la imagen o en pasar de página. Además, se produce un ligero parpadeo siempre que se modifica la imagen. Este problema funcional suele ser una de las mayores quejas de los usuarios y se produce porque el tiempo de respuesta de la pantalla es de, por lo menos, unos 200 milisegundos, mientras que LCD tan sólo tarda unos dos milisegundos en cambiar el contenido de la imagen. No obstante, continúa el debate sobre si los monitores LCD son más lentos a la hora de reproducir movimientos muy rápidos en video, frente a los de plasma u otras pantallas basadas en fósforo.

Mientras tanto, la mayoría de los usuarios que utilizan e-readers se han adaptado al tiempo de respuesta prolongado, porque a efectos prácticos, el retraso no es tan largo si lo comparamos con el tiempo que se tarda en pasar las páginas de un libro físico. Obviamente, este tiempo de espera sí supone una desventaja si deseamos reproducir video en nuestro dispositivo, por lo que al día de hoy, los libros electrónicos no sirven para reproducir imágenes en movimiento.

Otro de los inconvenientes es la ausencia de color, que no se trata de un problema grave para los contenidos solamente de texto. Pero esta limitación hace que una gran variedad de contenidos en color se escapen de las posibilidades del usuario, como revistas, libros infantiles, libros de texto ilustrados, y cualquier otro medio con fotografías e ilustraciones.

También, hay que tener en cuenta que la primera generación de libros electrónicos no ha sido diseñada para sufrir el grado de uso y desgaste provocado por los más pequeños. Las pantallas flexibles tienen menos riesgo de rotura en el caso de recibir un golpe o de caer al suelo. Además, una pantalla flexible es más ligera y permite hacer más portátiles los lectores de gran formato (actualmente el Kindle DX de Amazon es un modelo relativamente pesado con poco más de medio kilo).

¿Tinta electrónica o LCD?

Los monitores LCD reproducen magníficamente imágenes y video en color, pero también consumen una gran cantidad de energía, sobre todo para dispositivos móviles, lo que puede suponer una gran desventaja si queremos pasar varias horas leyendo un libro electrónico. Tampoco hay que olvidar que, sobre todo en monitores LCD de gran tamaño, el riesgo de rotura obliga a utilizar tecnologías para reforzar la pantalla que aumentan el peso final del dispositivo. Por esta razón, el peso de la pantalla LCD puede ser una seria amenaza si vamos a estar sujetando nuestro libro electrónico durante mucho tiempo.

Otra de las alternativas que barajan los fabricantes es aplicar a los nuevos lectores electrónicos monitores LCD monocromos. Desde por ejemplo, ofrecen Libre Pro, un e-reader diseñado con una pantalla monocroma de 5 pulgadas desarrollada por Toshiba. Al ser un dispositivo LCD, desaparece el problema del tiempo de respuesta con cada página y, como novedad especial, se prolonga la vida de la batería considerablemente porque no utiliza el sistema de retroiluminación usado habitualmente en los LCD. Según estimaciones de Aluratek, con este dispositivo podremos leer de 22 a 24 horas con cada carga de batería, siempre y cuando no tardemos más de 60 segundos en pasar cada página.

Desde E-Ink se está considerando el desarrollo de alguna de estas cuestiones en futuros productos, gracias a la colaboración de varias empresas asociadas, según Sri Peruvemba, vicepresidente de Marketing de la compañía. Por ejemplo, el modelo Skiff Reader, respaldado por Hearst Corporation y presentado en el pasado CES, ha sido diseñado especialmente para mostrar la información de periódicos, gracias a su pantalla táctil flexible de 11,5 pulgadas que permite visualizar contenidos en papel electrónico. Hay que decir que esta pantalla ha sido fabricada conjuntamente por E-Ink y LG. Además, también se ha potenciado la conectividad de Skiff Reader, ya que soporta redes 3G y WiMax.
La nueva compañía propietaria de E-Ink, Prime View Internacional (PVI), le está ayudando a desarrollar una pantalla de papel electrónico en color. Precisamente, y de acuerdo con Peruvemba, el desarrollo de un sistema en color fue una de las razones por las que E-Ink aceptó ser adquirida por PVI. Pero lo más interesante ha sido el anuncio del fabricante chino de libros electrónicos Hanvon, también conocido como Hanwang, de sus planes para iniciar, a finales de año, la producción en masa de un lector de e-books basado en las pantallas en color que está desarrollando E-Ink. Sin embargo, este futuro tan prometedor no contempla mejoras para solucionar la cuestión del tiempo de respuesta ya que, reconoció el ejecutivo, el problema todavía se encuentra en fase de investigación.

Los competidores de E-Ink

Mientras E-Ink se consolida como empresa dominante en el mercado del papel electrónico, es inevitable que otras compañías sigan luchando con nuevas propuestas. Así pues, las firmas desarrolladoras se han centrado en dos aspectos: el uso de un sistema biestable y la aplicación de gráficos en color. De hecho, en la Oficina de Patentes de Estados Unidos se han contabilizado más de 1.200 registros relacionados con estas tecnologías de, entre ellos, compañías como Intel, Fujitsu y Kodak.

Según el analista de DisplaySearch, Jenny Colgrove, se han detectado muchas compañías compitiendo en el mercado del papel electrónico, como SiPix en Taiwán (cuya tecnología está empezando a utilizar Asus) e incluso Bridgestone (sí la misma que fabrica neumáticos), gracias a sus desarrolladores en Japón. Ambas empresas han mostrado prototipos de e-readers en color. Asimismo, la firma holandesa Irex ha anunciado que planea la distribución de un modelo de libro electrónico en color para 2011.
Pero uno de los modelos de lector electrónico que más interés está generando es el que Qualcomm tiene en desarrollo, aunque ésta sea más conocida por su tecnología para redes móviles. La tecnología de Qualcomm MEMS empleada en este dispositivo se denomina Mirasol y ya fue presentada hace varios años.

Mirasol es una tecnología de modulación interferométrica (IMOD) que al igual que sus rivales de la electroforesis, permite que las pantallas funcionen mediante luz ambiental y no necesiten retroiluminación para visualizar su contenido, como sí ocurre con los monitores LCD. Utiliza dos placas conductoras que se separan al aplicarles una carga eléctrica; de manera similar a como un prisma crea un arco iris, una pantalla Mirasol presentará colores distintos cuando la luz pase a través del sistema, pero siempre en función de la distancia que exista entre las dos placas.
Desde Qualcomm apuntan que Mirasol es un sistema superior a la tecnología basada en electroforesis que utilizan E-Ink y otros fabricantes por diversos motivos. Por un lado, porque con el sistema Mirasol, el tiempo de respuesta es más rápido, lo que favorecerá la reproducción de videos y, por otro, porque es más eficiente a nivel energético que sus rivales.

Las pantallas Mirasol saldrán próximamente en China con el móvil C108 de Hisense y en sistema monocromo. Además, Qualcomm MEMS Technologies y el fabricante taiwanés Inventec dieron a conocer la terminal Inventec V112 en el Mobile World Congress, llevado a cabo en Barcelona, España, que usará como monitor secundario una pantalla Mirasol de 1,1 pulgadas. De igual manera, se espera para el tercer trimestre del año el lanzamiento de un lector de libros electrónicos con una pantalla en color de 5,7 pulgadas y que podría ser la nueva generación del Kindle, según afirmó Cheryl Goodman, director de Marketing de Qualcomm.

No obstante, podría existir una alternativa a estas tecnologías de pantalla para libros electrónicos, según apunta el analista James McQuivey, de la consultora Forrester Research, quien ve muy posible implantar modelos híbridos que reúnan lo mejor de la tecnología LCD con los avances proporcionados por los modelos de luz reflejada, como la electroforesis o la modulación interferométrica, entre otros. La compañía Pixel Qi ha mostrado unos prototipos de 10 pulgadas, con pantallas transflectivas (las habituales en dispositivos PDA) que ha aplicado en netbooks y lectores de libros electrónicos. La firma defiende que su sistema ofrece una calidad de imagen superior y mejora la legibilidad, sobre todo en interiores, que es cuando el sistema activa la retroiluminación LCD.

En definitiva, aunque en el futuro se pueda imponer alguna de las tecnologías que hemos explicado, no cabe la menor duda de que 2010 está siendo un año espléndido para el mercado de dispositivos de libros electrónicos. Porque según apunta la consultora DisplaySearch, este año se prevé triplicar el número de pedidos de estos dispositivos; en concreto, el cambio podría suponer el salto de los 5 millones del año pasado hasta unos 15 millones de pedidos a lo largo de 2010.
Fuente; PC world

lunes, 17 de mayo de 2010

Time to market, nuevos negocios, ¿es el momento?

La cautela que debe imperar ante cualquier tipo de lanzamiento del tipo que sea, no deja de ser más cierta que nunca en estos tiempos que sufrimos. Pero en esa doble prudencia que todos nos estamos auto-imponiendo, puede que se halle la clave del diferenciamiento y por lo tanto, del éxito de nuestra nueva iniciativa empresarial o comercial.

Cuando todos estamos rogando a la tan socorrida virgencita para que nos deje como estamos, habrá quién aproveche este momento catatónico en el que parece estar inmerso todo el mundo para desmarcarse, atreverse, romper, innovar, sorprender, arriesgar y en definitiva, dar con ese nicho o esa oportunidad que siempre surge en cualquier crisis para llevar a cabo su tan esperado lanzamiento de nuevo negocio.

Por negocio entendemos aquella idea, producto, proyecto, evolución, o actividad, que se quedó en el tintero, por ser demasiado innovadora en su día y que es el momento de desempolvarla o darle la oportunidad que entendemos merece; o simplemente lo que ante el panorama actual se nos acaba de ocurrir y en la que decidimos embarcarnos.

Indudablemente, muchos de los conceptos y principios del marketing son relevantes en contextos emprendedores (Slater y Narver, 1994; Gatignon y Xuereb, 1997; Hurley y Hult, 1998; Kumar et al., 1998). En este sentido, la orientación emprendedora incluye diferentes procesos, concretamente: innovación, riesgo y proactividad.

Cuando pensamos en innovación lo asociamos con inversión, pero la innovación está más ligada al conocimiento profundo de lo que necesitan o pueden necesitar aquellos que se relacionan con nosotros. Así mismo, la proactividad tiene que ver con la capacidad de la empresa para anticiparse a los cambios que ocurren en el entorno, e implica tomar la iniciativa en el esfuerzo de moldear el entorno de forma que se pueda conseguir una ventaja competitiva sostenible. Además, una orientación emprendedora supone la asunción de riesgos en la toma de decisiones.

Teniendo en cuenta estas consideraciones previas, podemos ver algunas de las claves para poder desarrollarla:

1.- Introduzca el marketing donde se hable de estrategia. Peter Drucker afirma “the business has two basic functions: marketing and innovation. Marketing and innovation produce results, all the rest are costs.” Existen muchas fuentes para generar innovación, la orientación al mercado es una de ellas.

2.- Plantéese la innovación basada en valor esto es, desarrolle una innovación radical.

3.-Propicie estructuras flexibles, dinámicas. Parafraseando a Drucker: la innovación entraña unos riesgos que se manejan mejor desde una unidad local, flexible, rápida, autónoma y competitiva, que desde una central que planifique de modo uniforme”.

4.- Mida de forma diferente. Si mide las cosas con los mismos indicadores de siempre, difícilmente innovará.

Cuando todos estamos cerrando grifos, reajustando plantillas, persiguiendo cobros, refinanciando deudas o simplemente contentándonos de repetir ventas, no vamos a poder reaccionar ante el lanzamiento de ese negocio que a todos nos va a coger con el pie cambiado, y que seguramente se quede con ese nicho, clientela o obtenga ese impacto comercial al que no podremos hacer frente con la inmediatez deseada.

El mejor “time to market” de esa nueva iniciativa o negocio se convierte en época de crisis en la mejor arma con la que nuestra organización podría soñar disponer. Quien consiga poner en marcha ese nuevo negocio en el menor tiempo posible (siempre y cuando podamos afrontar los costes que ello suponga sin grabar más nuestra delicada situación particular), tendrá mucho ganado no sólo de cara a hoy sino para ese futuro próximo que todos esperamos sea sinónimo de recuperación y regeneración económica.

El ciclo actual se invertirá, y quién arriesgue hoy llevará tal ventaja cuando se reactiven los mercados, donde será aún más difícil de lo habitual competir, posicionarse o contrarrestar el efecto de ese nuevo negocio que surgió en época de crisis, que a todo el mundo descolocó y que ahora es el nuevo referente por lo inesperado de su lanzamiento, y por el acierto de su “time to market”: tiempo de mercadear lo, o dicho de otra manera, tiempo de puesta a disposición del mercado...

La mejor estrategia de Marketing de la historia

No sé si conocerán a Gary Vaynerchuk, yo empecé a oir hablar de él hace un par de años, básicamente es un tipo francamente vehemente y apasionado que predica que uno debe hacer en su negocio lo que le apasiona de veras...

Ese es un viejo discurso, y suena muy bonito en el mundo ideal de cuento de hadas, de hecho ese discurso no es nuevo ni mucho menos. Entonces, ¿por qué escucho a Gary?

Porque al contrario que muchos que repiten eso simplemente porque queda muy bonito (y hace sentir muy bien a quien lo dice y quien lo escucha) Gary es la prueba viviente de que se puede hacer y, además, es un genio del Marketing.

Él, al contrario que muchas sonrisas falsas que repiten sin parar esa frase de autoayuda, sí que demuestra con hechos las palabras.

Tomo el negocio de licores de su padre, lo reposicionó, creó Wine Library Tv y lo convirtió en una empresa millonaria y una marca reconocida mundialmente.

Luego creó de su propia marca, reconocida cada vez más también con el paso del tiempo.

En apenas un par de años consiguió pasar de ser alguien anónimo a ofrecerle más de 40 contratos de televisión y lucrativas ofertas para hablar en público de sus ideas o ser consultor de empresas con presupuestos abultados.

El tipo es un genio en lo que se refiere a Marketing, promoción, creación de marca y, sobre todo, marca personal..

Uno de los lucrativos contratos que le ofrecieron fue el de escribir un libro, cosa que ha hecho recientemente y cuyo resultado se llama: >"Crush it". Por qué ahora es el momento de crear un negocio basado en la pasión de cada uno.

La cuestión es que hojeo el libro, me voy al índice y veo un apartado que se llama:

La mejor estrategia de Marketing de la historia

Y veo también que la sección ocupa solamente una página.

Eso en sí es muy buen marketing, porque me despierta tanta curiosidad (elemento fundamental para que un mensaje de Marketing funcione), que voy directo a dicha hoja.

Al darle la vuelta descubro que está prácticamente en blanco, sólo en el centro de la misma hay cuatro letras en enormes mayúsculas.

CARE

Lo que traducido del inglés al español viene a ser "que nos importe".

Que nos importe lo que hacemos, que nos importen los clientes como personas que son y la relación que tenemos con ellos que nos importe dar valor.

Que nos importe, no hay mejor estrategia de Marketing
Esas cuatro letras han sido la mejor lección de la semana para mí, no porque me resultara desconocida, de hecho sonreí y asentí sin querer, porque incluso en un artículo pasado para clientes trataba a fondo el mismo tema de que nos tiene que importar lo que hacemos, y aquellos para quienes lo hacemos.

Si no es así, si lo hacemos sólo por el dinero, porque creemos que no sabemos hacer otra cosa o porque es el camino que un día escogimos y ahora tenemos que seguirlo hasta el final, entonces todo es una farsa.

Como todas las lecciones verdaderas, las tenemos que redescubrir cada cierto tiempo, porque siempre aprendemos o aplicamos algo nuevo cuando las leemos.

Así que ahí está, esa es la mejor estrategia de Marketing posible, la mejor de la historia, ni la campaña más creativa y cara la puede superar.

Han sido sólo 4 letras, pero si dedicamos 5 minutos, sólo 5 minutos hoy a pensar sobre ello, le aseguro que extraeremos unas cuantas lecciones personales muy importantes para nuestra situación.

Los 3 errores más habituales (y costosos) en Marketing

Todos cometemos errores, es algo inevitable y que nos acompañará hasta el último de nuestros días, sin embargo, que sea así no implica que:

a) No intentemos reconocer cuáles son.

b) No intentemos ponerles remedio.

Eso es lo que vamos a hacer aquí con respecto al Marketing.

Por experiencia hay tres errores fundamentales que se suelen cometer por parte de las pequeñas y medianas empresas a la hora de desarrollar el Marketing. Prácticamente ningún negocio se libra de cometerlos en algún momento y, por supuesto, éste que escribe también.

El verdadero problema lo tenemos cuando esos errores son una constante, es decir, que sistemáticamente los repetimos y además optamos por la peor de las estrategias, que es cerrar los ojos ante ellos.

El resultado es fácil de adivinar: marketing poco rentable, resultados escasos y frustración, porque en muchas ocasiones y por desgracia para la pyme, el Marketing es sinónimo de eso precisamente, de frustración.

Error número 1: Mensajes débiles
Hoy día es tal el nivel de ruido y competencia que cada vez es más difícil decir las cosas de manera que se nos oiga y, sobre todo, que se nos haga caso. Cuando uno lee la mayoría de los mensajes de Marketing que le llegan puede ver un patrón común que se basa en el “Yo, Yo y Yo”. “Nuestra empresa esto y nuestro producto lo otro”.

Por desgracia nuestra empresa y nuestro producto, el modo en que trabajamos o cómo creamos la iniciativa en su día es algo que sólo nos interesa a nosotros. Al cliente todo eso lo único que le proporciona son ganas de reciclar el folleto o hacer clic para cerrar la ventana de su navegador.

El mensaje adecuado habla siempre y en primer lugar de la necesidad del cliente y luego de cómo puede solventarla con lo que hacemos. El cliente quiere oír hablar de él, sus problemas y cómo puede solucionarlos. Quizá con el tiempo y una relación más sólida algún cliente quiera saber más sobre cosas de nuestra empresa, pero al principio le importa él y lo que ha venido a buscar, si no se lo decimos de manera rápida y convincente se va. Así de simple.

Tarea: Revisar nuestros mensajes

Eso incluye nuestros folletos, sitio web, tarjetas de visita, cuñas de radio... Poner en primer lugar de todos ellos lo que realmente busca el cliente y comenzar a cambiar cada referencia a nuestra empresa por una referencia a lo que de verdad le importa a aquel a quien nos dirigimos (él mismo).

Error número 2: Disparar a ciegas
Recientemente en un interesante artículo llamaban a esto “spray and pray”. Es decir, lanzar el mensaje como un spray a todo lo que se mueva y ponerse a rezar para que alguna semilla caiga en tierra fértil.

La rentabilidad no está en intentar abarcar todo lo posible y vender a todo el mundo, sino en tener un segmento de clientes fieles con los que establecer una relación leal, profunda y duradera.

El camino más rápido para un marketing poco rentable es usar esa “estrategia en spray” de campañas a todo el mundo. Mil teléfonos cualquiera a los que llamar son peores que 20 teléfonos de clientes ideales. Si queremos que nuestro marketing sea rentable y dé frutos en forma de ventas, es hora de plantearnos un marketing de precisión, buscando realmente a quien nos quiera escuchar y quien pueda favorecerse de lo que hacemos, aunque cueste un poco más.

Tarea: Definir claramente nuestro cliente ideal.

Si ya tenemos clientes miremos quiénes son los mejores, sus rasgos comunes nos indican el tipo de cliente que deseamos atraer y será más fácil definir claramente y por escrito quién es nuestro cliente ideal.

Una vez tengamos un retrato robot de ese cliente ideal debemos preguntarnos: ¿Dónde puedo encontrarlo? ¿Cuál es la mejor manera de contactar con él? ¿Cuál es su necesidad o deseo más urgente (para aplicarlo en la tarea anterior)?

Lo siguiente es refinar nuestro Marketing para que sea de precisión y enfocado en ese tipo de cliente.

Error número 3: No dar seguimiento
Cada día que pasa es más difícil conseguir una venta “a la primera”, por eso, en vez del enfoque duro de vender es mejor un enfoque de relación paso por paso. Un posible cliente puede no habernos comprado en el momento, pero eso no significa que no lo pueda hacer en el futuro. Hay que dar un seguimiento, sin un seguimiento estaremos perdiendo la mayoría de las ventas porque casi ninguna podrá ser a la primera.

Para eso tenemos que tener en marcha una estrategia de gestión de clientes y contactos, almacenando los datos, pidiendo permiso para comunicarnos con ellos, preocupándonos por suministrarles valor y hacerles la vida más fácil.

El resultado debe ser que, con el tiempo, estemos ahí y demostremos que somos de confianza para cuando le surja la necesidad. Si lo que ofrecemos es un servicio o bien un producto de cierto valor monetario, esta estrategia es todavía más vital.

Tarea: Tener una estrategia de seguimiento.

Tenemos que crear una relación. El escenario más favorable para nuestro negocio es tener una estrategia de CRM, idealmente complementada con un buen software de CRM. Si no la tenemos hay que ponerla en marcha. No implica necesariamente grandes desembolsos, implica preocuparse por el cliente presente o futuro y no perder el contacto, mostrando poco a poco que somos alguien en quien merece la pena confiar. Y si la tenemos preguntémonos: ¿Está funcionando correctamente? ¿Qué tres cosas podría hacer para mejorar su efectividad? Pensemos un momento y anotemos en un papel.

domingo, 9 de mayo de 2010

El Festival Latinoamericano de Instalación de Software Libre 2010 (FLISoL)

El Festival Latinoamericano de Instalación de Software Libre (FLISoL) es el evento de difusión de software libre más grande en América Latina. Se realiza desde el año 2005 y su principal objetivo es promover el uso del software libre, y dar a conocer su filosofía, alcances, avances y desarrollo.

¿Pero que es el software libre? es la denominación del software que respeta la libertad de los usuarios sobre su producto adquirido, una vez obtenido puede utilizarse, copiarse, estudiarse, cambiarse y redistribuirse libremente. A diferencia del software propietario, si utilizamos software libre en las computadoras el único gasto en el que se incurre sería la compra del equipo, en caso contrario se debe pagar por éste y el software a utilizar, siendo a veces el último más costoso que el equipo.

El pasado 24 de Abril, en la ciudad de La Paz, en las instalaciones del Departamento Académico de Sistemas Computacionales de la Universidad Autónoma de Baja California Sur (UABCS), se celebró también dicho evento, contando con un total entre maestros, alumnos y ciudadanía de 38 personas que participaron dentro de las actividades.

Se dio inicio con la charla “Software Libre, pasado, presente y futuro” impartida por Igor Hernández, presidente del Grupo de Usuario Linux de Baja California Sur (GULBCS), conocida en el mundo del Software libre como ¨ la charla evangelizadora¨ aquí se habla del significado del Software libre, su filosofía, sus inicios y su visión. Continuó con el panel de discusión “Software Libre vs. Software Propietario” en donde se realizó un debate entre los miembros del panel y el público asistente, se compartieron experiencias en el uso de herramientas informáticas, se analizaron los pros y contras tanto del software libre como del software propietario. Además se impartieron los talleres de “LAMP (Linux, Apache, MySQL, PHP)” donde se realizó la instalación de un servidor para publicación de páginas Web. En el taller de “GNU/Linux Primeros Pasos”, se mostró cómo instalar y configurar el sistema GNU/Linux Ubuntu (sistema similar a Windows) a nivel básico para los que se inician en el movimiento del software libre. Y por último en el taller de “Programación Multiplataforma”, se habló de cómo desarrollar una aplicación para diferentes Sistemas Operativos (Windows, GNU/Linux, Mac), con el lenguaje de programación C++ y la librería NCurses, además de desarrollar un pequeño programa que cumpliera con las reglas de la programación multiplataforma.

Lo antes mencionado fue el preámbulo al evento principal del FLISoL 2010, denominado “InstallFest”, mismo que inauguró la M.S.C. Mónica Adriana Carreño León, responsable del Cuerpo Académico de Tecnologías de la Información (CATI) de la UABCS. Durante éste los asistentes llevaron sus equipos de cómputo para instalar Software Libre, ya sea, programas libres para Windows o Sistemas Operativos libres como GNU/Linux Ubuntu. Se regalaron CD´s y DVD ´s con software libre y sistemas operativos libres. La jornada de trabajo del festival fue de 11:00 a las 20:00 horas.

Este tipo de actividades, son importantes dado que actualmente la mayoría de la información es procesada de manera automática por computadoras, siendo esto un rubro estratégico para el desarrollo de nuestro estado. Si bien las tecnologías de software libre aún no han permeado a todas las capas de nuestra sociedad, las libertades que otorgan son importantes y deben ser conocidas por todos los sudcalifornianos además de la utilidad que tienen en el campo empresarial, gubernamental y social, es un foco de atención para el Departamento Académico de Sistemas Computacionales de la UABCS.

El comité organizador:
Ing. Francisco Javier Escoppinichi Fernández,
Lic. Arturo Iván De Casso Verdugo,
Lic. Yoshio Alberto Valles Márquez,
Egresados de la UABCS
Ramses Sabik Bañares Meza,
Alumno de la carrera I.T.C.

Agradecemos a:
M.S.C. J. Andrés Sandoval Bringas, Jefe del Departamento Académico de Sistemas Computacionales.
M.T.E. Javier Aguilar Parra
M.S.C. Jaime Suárez Villavicencio
Igor Hernández Presidente del GULBCS
I.T.C. Julio Cesar Villa Gómez miembro del GULBCS y egresado de la UABCS.


''Gracias por su invaluable apoyo para la realización del FLISoL 2010.''

Por: Yoshio Valles y Daniela Núñez

Fuentes:
http://flisolmexico.info/
http://es.wikipedia.org/wiki/Software_libre

sábado, 8 de mayo de 2010

Communicator Mobile

Microsoft Communicator Mobile para Nokia es el primer desarrollo resultante entre la alianza entre estas dos empresas que se enfoca en simplificar la colaboración en entornos móviles.
Microsoft Communicator Mobile para dispositivos Nokia es la primera aplicación que surge de su alianza a través de la que buscan mejorar la productividad móvil. Esta aplicación se conecta directamente a los sistemas de comunicación de la empresa para mejorar y hacer más eficaz la colaboración desde los teléfonos celulares. Aquellos que tengan teléfonos Nokia Eseries, basados en Symbian, pueden descargar la versión en inglés en la Ovi Store.

Communicator Mobile permite a los usuarios ver la disponibilidad de sus compañeros de trabajo y comunicarse con ellos mediante mensajería instantánea a correo electrónico, mensajes de texto o llamadas telefónicas. El nombre y estado están integrados directamente en la aplicación de contactos del celular, ofreciendo la posibilidad al usuario de actualizar su estado, iniciar sesiones de mensajería instantánea o incorporarse a ellas, y realizar llamadas directamente desde la tarjeta del contacto.

Este lanzamiento es el primer fruto de la alianza anunciada el pasado agosto; la primera ocasión en que las dos empresas establecían un acuerdo de tal envergadura. Desde entonces, las dos compañías han colaborado en el diseño y la creación de nuevas soluciones, además de iniciar actividades de marketing conjuntas en torno a otras ya disponibles.

Esta aplicación, disponible inicialmente para los teléfonos Nokia E72 y E52, se suma al trabajo que está realizando Nokia para optimizar el acceso directo al correo electrónico y a otra información personal con Microsoft Exchange ActiveSync. Las dos empresas tienen previsto incluir Communicator Mobile para Nokia preinstalado en smartphones Nokia, así como ofrecer la compatibilidad con otros móviles, como el recién llegado Nokia E5.

BumpTop escritorio en 3D

Google adquirió BumpTop, una compañía que desarrolla software que convierte cualquier escritorio Windows o Mac OS en un entorno 3D y que permite al usuario trabajar en tres dimensiones.

Como lo informa en su página web, la compañía BumpTop fue adquirida recientemente por Google. Algunos analistas dicen que la intención de Google sería la de implementar sus opciones y el escritorio tridimensional en sus productos, en el navegador Chrome, o incluso bajo el sistema operativo Android.

Hasta el momento, BumpTop tenía disponible una versión gratuita tanto para los usuarios del sistema operativo Mac OS como para los usuarios de entornos Windows. Además, la versión profesional estaba sujeta a un precio, pero permitía desarrollar aplicaciones en este sentido. Por su parte Google destaca que la versión pagada ya no está disponible, mientras que la gratuita lo hará en un breve. Igualmente señala que los usuarios profesionales tendrán soporte de por vida, pero no contarán con actualizaciones posteriores.

Además de convertir el escritorio en un entorno 3D, el software también permite una serie de funciones adicionales, como es el caso de poder configurar varias pantallas en forma de cubo, arrastrar fotografías o manejar su tamaño de forma rápida, así como programar accesos directos a aplicaciones habituales. El software adquiere su mayor funcionalidad cuando es utilizado junto con equipos tipo tablet PC que contemplan el manejo multitáctil.

Así, los usuarios que deseen conocer todas sus características, algo que Google apreció tras cerca de tres años de desarrollo del proyecto, Si tu equipo es una Macintosh, debes contar con una versión superior a la 1.05.2, mientras que si la plataforma es Windows, debes contar con una API DirectX superior a la 2.1-6225, lo cual no es muy difícil.

http://www.youtube.com/watch?v=eqcmPJ-oVL0&feature=player_embedded

Un buen proyecto de escritorio 3D pero sigo siendo fiel al administrador de ventanas de Linux “Compiz Fusion o Beryl”

martes, 4 de mayo de 2010

Virtualización & la Máquina Virtual

La consolidación de servidores es una tecnología clave para mejorar la utilización de los servidores físicos y por lo tanto de nuestro centro de datos.

Mediante el uso de la tecnología de virtualización de servidores, las organizaciones mejoran enormemente la utilización de sus servidores actuales pasando de utilizar un 10% a un 60-80% de su capacidad total de cálculo haciendo así un uso más completo de los servidores que adquieren.

Por consiguiente, el software de virtualización de servidores (VMware, Xen, HyperV, RedHat Virtualization por poner un ejemplo) es un software de máquina virtual, en ingles, Virtual Machine (VM), que se instada directamente en el servidor físico para consolidarlo y “particionarlo”.

La VM es el equivalente en el mundo físico a la unidad unidad c:\ ,d:\, etc, junto con sus aplicaciones y sistema operativo, en este caso Windows, o /root, /home, /tmp, … para GNU/Linux.

En otras palabras, este software nos permite crear múltiples instancias de máquinas virtuales en un mismo servidor físico, cada una de las cuales corre independientemente un sistema operativo y aplicativo diferente.

Así por ejemplo en esta imagen adjunta, podemos ver con mayor detalle la tecnología de virtualización de la solución de VMware vSphere.

La fina “capa de virtualización” que se muestra en azul oscuro en la imagen anterior separa la capa física (arquitectura x86) del sistema operativo en sí.

Cada máquina virtual posee sus propios recursos virtuales hardware como memoria RAM, CPU, NIC, etc, los cuales son usados por la máquina virtual. El sistema operativo en la máquina virtual (sistema operativo Guest) cree que este hardware es en todo momento físico y no entiende nada de recursos virtuales.

Esto permite, como vemos en la imagen anterior, ejecutar múltiples sistemas operativos, mejor dicho, máquinas virtuales heterogéneas (Windows, Linux, Novel, etc) a la vez y en un mismo servidor físico, maximizando así todos los recursos del servidor físico.


Beneficios de las máquinas virtuales

Uno de los grandes beneficios es la encapsulación. Las máquinas virtuales son encapsuladas en varios ficheros lo cual hace posible que estas sean copiadas, movidas y implementadas más rápidamente. Así pues y, gracias a la encapsulación un sistema completo (VM) con aplicaciones, sistema operativo, BIOS y hardware virtual puede ser movido ininterrumpidamente (migración en caliente) de un servidor fisco a otro en cuestión de segundos.

El segundo benéfico es el particionamiento lógico del servidor físico, lo cual nos permite ejecutar múltiples aplicaciones y sistemas operativos en un único servidor físico como se puede apreciar en la imagen anterior.

El tercer benéfico es la tecnología de aislamiento, el cual asila completamente una VM de las otras. Así ante el hipotético caso de que una VM se “tronara” debido a un fallo del sistema operativo en la maquina virtual (BSOD, la pantalla azul de la muerte) este fallo no afectaría a ninguna de las otras VM que estuvieran corriendo en el mismo sistema.

Y por último, una máquina virtual es independiente al hardware físico. Este beneficio representa un avance tecnológico gigantesco con respeto a los planes de contingencias basados en servidores físicos.

La máquina virtual al ser independiente del hardware físico puede ser movida, copiada o replicada de un centro de datos a otro y con independencia de los servidores físicos que estos centros de datos tengan (migración en frio).

El Modelo IOM - Metodología de trabajo

El Modelo de Optimización de Infraestructuras es una herramienta para ayudar a establecer y organizar las prioridades de TI y planificar de forma eficaz el proceso durante un periodo de varios años. El uso correcto de la herramienta supone seguir una serie de etapas, con el apoyo de una evaluación interna más completa que debe realizar el equipo de TI.

La metodología utilizada para el Modelo de Optimización de Infraestructuras permite avanzar progresivamente hacia los máximos niveles de madurez considerados como adecuados para una empresa, una organización o un entorno concreto, y consta de tres fases fundamentales:

1. Identificación del grado de madurez actual:

Consiste en perfilar las tecnologías, procesos y políticas que actualmente tienen en marcha en su infraestructura de desktop, datacenter y red. Profundizar en capacidades concretas y situar el punto actual de grado de madurez alcanzado por la organización. Según se va determinando el grado de madurez de TI en cada capacidad, debe atenderse especialmente a los proyectos en curso que se han iniciado con una base débil ?en otras palabras, si hay alguna capacidad básica que debe ponerse en servicio antes de iniciarse el proyecto. Es posible que haya que reajustar prioridades o cancelar proyectos que eran aparentemente buenos, pero no en la situación actual.

2. Identificación del grado de madurez óptimo para esta infraestructura:

Aunque la mayoría de organizaciones preferiría ir a un estado dinámico, en la mayoría de sectores tiene más sentido centrarse exclusivamente en la optimización de costes. El paso siguiente en el proceso consiste en identificar el punto de destino más adecuado para las circunstancias de su organización.

Posiblemente el aspecto más importante del Modelo de Optimización de Infraestructuras es su capacidad para establecer planificaciones a largo plazo (varios años incluso). La metodología de identificación de proyectos a corto plazo que establecen los fundamentos para iniciativas a largo plazo orientadas a mejorar la competitividad permite diseñar una hoja de ruta para la planificación de presupuestos, asignación de recursos y protección de las inversiones. Esta estrategia garantiza además que los proyectos de mejora son equilibrados y que se identifican y afrontan los puntos donde es necesaria la integración.

3. Diseñar e implementar los proyectos de máximo impacto necesarios para progresar:

Indudablemente habrá muchas más deficiencias al tratar que las que pueden resolverse con el presupuesto de TI de un solo año.
La herramienta está pensada para poder establecer las prioridades y el orden de ejecución de los proyectos a realizar de una manera inteligente. Una vez se han detectado las deficiencias, tendremos que identificar las que presentan estas características:

Hay una carencia evidente de madurez en alguna capacidad concreta con respecto a las demás.

Una capacidad crítica que es la base de la competitividad o la diferenciación no existe o no está bien desarrollada.

Existen dependencias de cara a futuras tecnologías que todavía no se han puesto en marcha.

La gestión de proyectos concretos en el contexto de una visión de TI dinámica hace que el departamento de TI hable el mismo idioma que los directivos o administradores pueden entender y valorar.

lunes, 3 de mayo de 2010

General Motors Company

Lo que no mata, fortalece. Esta máxima ha probado ser cierta para un gran número de empresas que han vivido en carne propia los embates de las últimas crisis financieras que se manifestaron a finales de la primera década del siglo.

La caída del sector hipotecario de Estados Unidos y su impacto global, a la par de una crisis del sector automotriz, dejó piedras en el camino a un gran número de organizaciones globales.

2009 fue un año especialmente complicado para General Motors, firma que en junio de 2009 se declarara en banca rota y que reconociera una deuda superior a los $121 mil millones de dólares. Tras recibir un apoyo gubernamental valorado en $50 mil millones de dólares, General Motors Company (GMC), el nuevo nombre que adoptaría entonces, vuelve paulatinamente al carril del crecimiento.
En el camino, GMC ha tenido que hacer cambios definitivos para ser una empresa sana y salir avante de los tiempos difíciles. “2009 fue un año de transformación para General Motors”, afirma Michael Khan, CIO (Director de Tecnologías de Información) del fabricante de automóviles.
“Fue un año duro para la compañía en general y para TI en particular. No obstante, hoy podemos decirle al mundo que estamos abiertos al negocio y que estamos listos para ser una empresa saludable otra vez”, Menciono el CIO Michael Khan.

La reinvención
¿De qué manera contribuyó la Tecnología de Información a sacar del bache en que GMC había caído?
...Sin duda, TI jugó un rol definitivo a escala global y local. En lo que a México corresponde, Kahn asumió la dirección de Sistemas de Información de la subsidiaria en el país para dirigir una reinvención a fondo.
Dicha reinvención, recuerda, consistió en conformar un equipo de trabajo totalmente nuevo, así como una nueva cultura y forma de trabajar. “Al mismo tiempo, buscamos mantener nuestras operaciones en línea, ejecutando y manteniendo proyectos, y apoyando en el lanzamiento de nuevos productos”, detalla. No obstante, la conformación del nuevo equipo de trabajo también implicó reducir el número de integrantes, algo que no fue fácil de ejecutar, reconoce.

Asimismo, el ejecutivo destaca algunos de los cambios clave derivados de los cambios hechos al interior de TI. Por un lado, afirma, se dio el salto de un modelo distribuido a uno central. Por otro lado, se hizo un alineamiento de TI con el negocio “mucho más limpio”, como él mismo lo califica.
“Como el resto de la compañía a nivel mundial, se eliminaron procesos redundantes e ineficientes que no contribuían al valor de GMC. Nos enfocamos más en nuestra misión y en alinear a la gente muy de cerca con el negocio”, apunta.
Actualmente, el equipo de Khan en México está conformado por 28 miembros, y trabaja muy de cerca con terceros como es el caso de HP/EDS y Capgemini bajo el modelo de outsourcing. De hecho, esta colaboración tiene un alcance global.
“GMC es una compañía que trabaja con un esquema de outsourcing. Tenemos un liderazgo en TI bien definido, con personal que conoce los procesos de negocio y los sistemas, pero también hay atrás terceros soportándonos en todo el mundo”, añade.

Si hay algo de lo que GMC puede estar seguro es de la puntualidad con que trabajan sus sistemas y procesos, desde las plantas hasta su cadena de distribución.
Una muestra es la planta de General Motors Company ubicada en Silao, Guanajuato, misma que cuenta con una extensión de 229.9 hectáreas y que fuera inaugurada en el año de 1996, y en la cual se realizan el ensamble, motores (4.8L / 5.3L / 6.0L / 6.2L), transmisiones (6L50 / 6L80 / 6L90) y estampado de vehículos como Chevrolet Avalanche, Chevrolet Silverado Crew Cab (Exportación), Cadillac Escalade EXT, GMC Sierra Crew Cab y Cheyenne Crew Cab. “Silao es una planta clave que produce autos para el mercado nacional y el de Estados Unidos. Es una planta reconocida por su calidad y eficiencia, y en lo que la organización de TI es una parte importante de la ecuación”, indica.
Existe un área de procesos de TI denominada Real Time Systems, la cual está detrás de la línea de producción real, explica, que controla el flujo constante de la producción. “Incluso, desde una perspectiva global, sabemos en qué punto del proceso se encuentran las unidades. Los centros de comando saben dónde y cuántas se producen”, señala Khan.
Cabe señalar que actualmente GMC produce en México más de 138 mil unidades y capta 17.9% del mercado.

Clientes satisfechos
A casi dos años de tener que declararse en bancarrota, las perspectivas para la empresa son más optimistas.
En 2010, las prioridades de TI se encuentran, a decir de Khan, en cuatro áreas clave, las cuales están en línea con las de la corporación.
La primera de ellas es la satisfacción de los clientes. “Como TI tenemos la misión de proveer sistemas que nos permitan ofrecer la mejor satisfacción a los clientes”

Asimismo, TI buscará ayudar a GMC a lanzar con éxito el nuevo portafolio de productos al mercado mexicano, como es el caso de nuevos modelos de las marcas Buick, Cadillac y Chevrolet entre otras.
Por otro lado, también buscan optimizar su cadena de distribución para asegurar que todos sus productos estén disponibles a través de sus concesionarios, a precios competitivos.
Finalmente, conservar su capital humano. “Al cuidar a nuestra gente nos aseguramos de formar líderes así como darles la capacidad de ejecutar”, agrega. “Muchos servicios se refrescarán y se reinventarán para asegurarnos de tener la mejor tecnología y capacidades necesarias”.
Al mismo tiempo, el departamento a su cargo buscará mantenerse enfocado en mantener una operación estable y refinar su estructura de costos.

En el ADN
Al cuestionarle sobre las lecciones aprendidas de las tiempos de vacas flacas por los que ha pasado la compañía, Michael Khan, quien ha colaborado para GMC durante 26 años, aseveró que una de ellas es que TI esté siempre muy cerca del negocio, al igual que mantenerse siempre enfocado.
En este sentido, hace una reflexión de lo que suele suceder en las grandes empresas: “En este tipo de organizaciones, todos piensan que lo que hacen es importante y tratan de captar todos los recursos que tienen a su alcance, restando atención a lo que realmente importa”, afirma.
En particular, GMC ha aprendido que hay que concentrarse en lo vital para el negocio, desde la compañía en su conjunto hasta cada una de las distintas unidades de negocio. “Aún hay mucho que aprender, algo que hacemos constantemente”, señala.

De igual modo, hoy se asegura él y su equipo de que cada proyecto que arranquen tenga un beneficio para el negocio, ayude a vender vehículos y que ofrezcan la mejor solución a sus clientes y socios de negocio.
“Aprender de lo que experimentamos es parte del ADN de General Motors. La próxima vez que enfrentemos una situación complicada estaremos preparados, seremos ágiles para responder, adoptaremos el cambio de forma más rápida y tendremos a la gente adecuada”, concluye.
Fuente: CIO's Mexico

La Nube en AL

En Informatica/Computación la nube representa una nueva forma de explotar la información para lograr avances en Salud, Educación, Investigaciones Científicas, Administración Pública, Seguridad y hasta en el hogar, destacó Steve Ballmer, presidente ejecutivo de Microsoft Corporation, en el Foro de Líderes del Sector Público de América Latina y el Caribe, celebrado en la ciudad de México.

En el ámbito de la Salud, la Internet posibilitó acelerar las investigaciones y el intercambio de la información para hacer frente a la Influenza A(H1N1); en el sector Educativo brinda herramientas para la formación; en la rama Científica permite la interacción para compartir e intercambiar información; a los Gobiernos les brinda herramientas para mejorar los servicios y la atención a la ciudadanía; por otro lado, ayuda a ampliar los negocios.

“La ‘nube’ va a habilitar la próxima generación de tecnología innovadora y el crecimiento de las tecnologías de la información, acelerándolas y llevándolas a otro nivel, afirmó Steve Ballmer.

“La ‘nube’ crea nuevas oportunidades y responsabilidades; ayuda al aprendizaje, decisiones y toma de acciones; habilita la interacción social y profesional; promueve el desarrollo y uso de dispositivos inteligentes; y posibilita la oferta de servicios avanzados”.

Por otro lado, reiteró el compromiso de Microsoft para impulsar el cómputo en la nube, ya que éste modelo “ayuda a apalancar las tecnologías”, y consideró que es obligación de los gobiernos fomentar la inversión en infraestructura digital (banda ancha) y promover las ventajas de la tecnología. “Éste es el momento de que América Latina dé el salto hacia la ‘nube’”, concluyó.
Fuente; Microsoft.com