viernes, 12 de marzo de 2010
LAS FACTORÍAS DE SOFTWARE AFRONTAN EL RETO DE LA PRODUCTIVIDAD GLOBAL
La productividad de las Factorías de Software resulta imperativa para los proveedores de servicios de mantenimiento y modernización de aplicaciones, especialmente al calor de la globalización del ‘delivery’. En ese escenario, contar con una metodología probada y herramientas avanzadas resulta tan fundamental como una adecuada gestión del cambio.
La crisis económica y la consiguiente reducción de los presupuestos se ha convertido en una palanca de presión en los departamentos TI de las organizaciones, que se ven obligados a hacer más con menos. A su vez, los CIOs han trasladado esta presión a sus proveedores de servicios en distintos ámbitos, incluyendo el mantenimiento y la modernización de aplicaciones.
En esa tesitura y de cara a mantener sus niveles de competitividad, los proveedores de servicios necesitan contar con metodologías probadas y dotar a sus Factorías de Software de herramientas avanzadas capaces de dar respuesta a dos grandes retos: el incremento de la productividad en un entorno cada vez más globalizado y la gestión del cambio.
Esta es una de las principales conclusiones de la mesa redonda organizada por COMPUTING en colaboración con Micro Focus con el objetivo de evaluar los retos y las oportunidades de las Factorías de Software, no sólo en España, sino también en Latinoamérica, donde muchos proveedores de servicios TI han levantado centros productivos, incluyendo los reunidos en esta mesa por la multinacional de origen británico, a saber: Accenture, Indra, Telvent, HP, Microsoft, Atos Consulting, Ibermática, Tecnocom y Grupo Nmeno.
Estos importantes jugadores compiten en un mercado que, a pesar de la complicada situación económica, sigue gozando de buena salud y así lo refleja la propia evolución del negocio de Micro Focus. “Si hace más de un año un 60 por ciento del negocio correspondía al desarrollo de aplicaciones, un 20 a proyectos de migración y el resto a APM (Application Portfolio Management), en el último trimestre el 30 por ciento corresponde a desarrollo, un 40 a migración y un 30 a APM”, indica la directora general de Micro Focus para Iberia y Latinoamérica, Patricia Santoni. Y es que, tal y como apostilla el director de Servicios y Soluciones de Micro Focus, Miguel Fito, “las organizaciones han entendido la importancia de modernizar sus aplicaciones puesto que son conscientes de que las aplicaciones son sus activos más importantes”. En este escenario, “la unión entre los integradores y las compañías tecnológicas es lo que verdaderamente puede aportar el valor que nos demandan los clientes”.
Partiendo de esta premisa, el diálogo tuvo como punto de partida la identificación de los ‘drivers’ que mueven a las organizaciones a modernizar sus aplicaciones. Al respecto, el socio de Consultoría Tecnológica y director del Área de Renovación de Aplicaciones de Accenture, Alfredo Surroca, apunta tres factores principales: “el coste, un nivel elevado de riesgo y un tercero que no suele mencionarse y que corresponde a la falta de agilidad derivada de la rigidez de los sistemas heredados”.
Este último elemento resulta especialmente clave a la hora de abordar un proyecto de modernización, según el gerente de Desarrollo de Negocio de Telvent, Miquel Arroyo, quien considera que “la necesidad de cambiar o modernizar viene habitualmente determinada por el hecho de contar con tecnologías obsoletas”.
También el responsable del Centro de Competencia SOA de Ibermática, Pablo Carretero, identifica la obsolescencia de los sistemas como el principal factor impulsor de estos proyectos, en los que aprecia que existen dos grandes puntos de complejidad: “por un lado, la gestión a futuro y, por otro, el control de los cambios”.
En la misma línea y en opinión del director de Soluciones de Plataforma en la División Comercial de Grandes Organizaciones de Microsoft, Oscar Sanz, “las principales palancas son la búsqueda de agilidad en el negocio y la reducción de costes”, con una particularidad a tener muy en cuenta y es que “en los dos últimos años, los clientes apuestan por proyectos en los que el ROI sea a muy corto plazo, en menos de un año”.
Además y como añade el director del Área Internacional de Soluciones Tecnológicas de Indra, Carlos Guillermo Plaza, la crisis ha hecho girar el foco: “Anteriormente, la gestión del riesgo era el principal driver pero, hoy por hoy, la preocupación es el coste ya que ante la dificultad de mantener márgenes subiendo los precios, las empresas han encontrado en la modernización de aplicaciones una vía para reducir costes”.
Desde el punto de vista del Chief Technology Officer (CTO) de Capgemini, Jorge Villaverde, esta realidad es consecuencia de varios factores. Por un lado, “en el discurso tecnológico ya no está la fuerza para embarcar a una compañía en un proyecto de este tipo sino que ha de ser el negocio la palanca principal que tire hacia delante” y, por otro lado, “las grandes modernizaciones han llevado a muchos grandes fracasos con proyectos que se han prolongado años y no han dado los resultados esperados”. Ante estos cambios se impone una nueva aproximación en la que “la organización no debe ser el sufridor de sus sistemas de información sino su dueño”, subraya Villaverde, para quien la clave del éxito radica en “huir de los proyectos big-bang, centrarse en las necesidades del negocio, garantizar la convivencia de las aplicaciones nuevas y antiguas, e involucrar desde el primer momento al usuario”.
Por otro lado y en opinión de Sanz, “la necesidad de tocar la palanca del negocio para salir del ‘que me quede como estoy’ se debe a que en muchas ocasiones los propios departamentos TI han sido los inhibidores de estas iniciativas”. Y, en este escenario, Sanz considera que el verdadero aliciente para abordar un proyecto evolutivo radica en “poder transformar los puros centros de coste en centros de servicios”.
Justamente en la transformación centró su discurso el director general del Sector Banca y Seguros de Tecnocom, Javier Rey, quien considera que “la modernización de aplicaciones debe plantearse a partir de la idea de que las empresas que no se adaptan son incapaces de seguir adelante”. En ese sentido, Rey reconoce la importancia de la reducción de costes, pero considera que hay que conjugar otros factores: “la crisis es un driver, el time-to-market otro y también lo es la necesidad de disponer de sistemas flexibles”.
Parece evidente, por tanto, que la labor de los proveedores de servicios tiene una componente clave de impulso a la transformación ya que, como también confirma Jaume Ayerbe, responsable de Desarrollo de Negocio de la Unidad Global de Software de HP para EMEA, “hay muchas casuísticas en las organizaciones que no funcionan y nadie se atreve a tocar, de modo que tenemos que ser capaces de ayudar a los clientes a dar ese paso y a poder hacer más con menos”.
Cerrar el círculo del ciclo de vida
En cualquier caso y ya sea para reducir costes o con el punto de mira puesto en la innovación, cada organización -en función de su realidad y necesidades- deberá determinar el modo más adecuado para emprender un proyecto de modernización. “Hay empresas que lo abordan por etapas”, comenta Fito, “pero también hay iniciativas drásticas de empresas que directamente están apagando sus mainframes”.
En cualquiera de ambas aproximaciones, existen sin embargo fases comunes. En el caso de Accenture, la actividad conocida como ‘application renewal’ consta de tres fases: “la fase de Discovery, en la que nos apoyamos en las herramientas Relativity de Micro Focus y que nos permite conocer los entornos existentes en el cliente, una segunda fase en la que, en base a ese conocimiento, se evalúa y determina la renovación y mejora; y una tercera de planificación y desarrollo”, enumera Surroca.
En esta última fase, Accenture se ha visto beneficiada por las últimas adquisiciones realizadas por Micro Focus, no sólo a la hora de abordar la transformación automatizada de código, un ámbito en el que “recientemente hemos incorporado un robot que corre sobre reglas”, sino también en la fase de pruebas de regresión donde, como apunta Surroca, “nos apoyamos en herramientas de IBM y estamos en vistas de utilizar las herramientas de Micro Focus”.
El director de los Centros de Desarrollo de Alto Rendimiento del Grupo Mnemo, Roberto Ortiz, considera por su parte primordial la fase de ‘discovery’ ya que “muchas veces los clientes creen que sus entornos heredados son cien por cien Cobol y luego aparece Ensamblador, PL1, etc.”
La fase de pruebas también es considerada altamente crítica por parte de Ayerbe. “Resulta fundamental asegurar que la nueva aplicación dará los resultados obtenidos y, en ese punto, las soluciones de gestión del ciclo de vida de las aplicaciones suponen una ayuda muy importante a la hora de minimizar los riesgos”, indica el ejecutivo de HP, que no pasa por alto otros factores clave de productividad como “disponer de un catálogo que permita la visualización global de las tareas y evite la realización de un trabajo que ya se ha llevado a cabo por otro departamento”.
A la vista está que el control y el gobierno son igualmente aspectos decisivos. “Si existe una visión sesgada y poco control de la globalidad, se corre el riesgo de tomar decisiones que luego no cuadran”, advierte Rey, de modo que “hay que asegurar que, una vez transformadas, estas tecnologías están gobernadas”.
Al respecto, Rey considera que en los últimos tiempos se ha producido una transformación. “Hasta ahora hemos trabajado de forma muy artesanal y con mucha fuerza bruta -a veces sólo a base de meter gente-, ahora existen herramientas en las que nos apoyamos para aumentar la productividad y garantizar el buen desarrollo de las diferentes fases, desde el testing hasta el gobierno”.
En la misma idea insiste el director de Arquitecturas Corporativas de Atos Consulting, Israel Marcos, al indicar que “el planteamiento de voy a meter 50, 80 o 100 personas es complicado, primero para convencer al cliente y, segundo, considerando la palanca de reducción de costes; de modo que las herramientas de proveedores como HP o Micro Focus nos pueden ayudar a dar un valor diferencial y ofrecer un planteamiento distinto en el cual el cliente puede encajar el proyecto económicamente”.
En este sentido y sin olvidar que “los Software Center son multicliente y multitecnología”, como apunta Ortiz; queda patente que el hecho de contar como socio con un proveedor de soluciones como Micro Focus puede resultar diferencial. De hecho, el responsable de Alianzas de Telvent, Ignacio Duque, puso el acento justamente en este punto al afirmar que: “ir a un cliente acompañados de un partner de solvencia como Micro Focus constituye una importante ventaja”.
La conclusión, por tanto, es clara: “se trata de poder llevar a cabo un control integral del ciclo de vida del desarrollo de software”, sentencia Sanz. Y en la misma línea se expresa Ayerbe, quien entiende que “para asegurar que la nueva aplicación va a dar los resultados obtenidos, las soluciones de gestión del ciclo de vida de las aplicaciones resultan esenciales, especialmente a la hora de minimizar todos los riesgos”.
Por otro lado, Ortiz recuerda que “la utilización de metodologías y herramientas no sólo es aplicable a los proyectos de modernización sino a otros proyectos de evolución de aplicativos, por ejemplo, en el caso de fusiones o adquisiciones que obligan a la unión de diferentes aplicaciones”.
Gestión del cambio, prioridad
Más allá del uso de metodologías probadas y la disponibilidad de herramientas efectivas, hay otro factor determinante en el éxito de estos proyectos: una adecuada gestión del cambio. Este factor gana, además, en importancia en determinadas geografías y así lo constata Plaza, quien está totalmente convencido de que “estos proyectos no se pueden plantear como un problema de tecnología, puesto que en el fondo de lo que hablamos es de una metodología de implantación que tiene que tener en cuenta los problemas de negocio y a los usuarios”.
Adicionalmente y como matiza Plaza, “mientras que el reto en entornos maduros está más relacionado con la obsolescencia y tiene, por tanto, un carácter más tecnológico, en los países emergente, el desafío es claramente la gestión del cambio”.
Y es que, a pesar de su creciente capacitación tecnológica y como apunta Arroyo a modo de ejemplo, “para los usuarios no resulta sencillo pasar de las pantallas negras del host a un entorno web”. Por ese motivo, el gerente de Desarrollo de Negocio de Telvent, que ha ganado bastante conocimiento y experiencia en este campo a través de la compra de Matchmind, considera fundamental el uso de “una metodología que te permita identificar, ayudar y acompañar al cliente para que la gestión del cambio sea lo menos traumática posible”.
Este aspecto, al que no siempre se le da la importancia que merece, parece cada vez más tenido en cuenta por los proveedores de servicios. “El usuario es clave”, afirma Rey y, como tal, “la gestión del cambio implica que el usuario debe participar y casi esponsorizar el proyecto, sobre todo teniendo en cuenta que en el 90 ciento de los casos, el fracaso reside en una resistencia al cambio”.
No obstante, Surroca considera que hay que diferenciar dos tipos de proyectos. “Existen proyectos con cero impacto puesto que todo queda por detrás y simplemente se acude al usuario para recoger datos de prueba y existen otros proyectos que afectan, por ejemplo, a la interfaz gráfica en los que hay contar con la implicación de los usuarios para evitar el rechazo”.
La situación se complica aún más, recuerda Ayerbe, cuando “el entorno legacy no es tal, sino simplemente papel, como sucede en los entornos hospitalarios, donde ya no se trata de miedo, sino plana y llanamente de rechazo”. La clave para superar este obstáculo reside, según Ayerbe, en la funcionalidad y el rendimiento, es decir, en “construir sistemas que den respuesta a las expectativas de los usuarios”.
Existen, además otros puntos a tener muy en cuenta. El primero radica en el cumplimiento de los plazos, un ejercicio que exige el esfuerzo conjunto del integrador y la organización, y que, de acuerdo con la experiencia de Ortiz, “depende en gran medida de la existencia de una esponsorización fuerte por el lado del negocio”. El segundo se centra en la correcta migración de los datos: “la efectiva migración de datos es primordial ya que de no hacerse correctamente podemos encontrarnos con el desastre de tener la nueva aplicación funcionando y no disponer de los datos o disponer de datos en mal estado”, comenta Marcos, quien insiste en este aspecto dado que “si los usuarios perciben errores en los datos, es inevitable que se siembre la desconfianza”.
La nube, una opción a considerar
En otro orden de cosas, aunque dentro de este mismo complejo entramado, a día de hoy es necesario considerar otro elemento, tanto por las organizaciones usuarias como por los proveedores de servicios: cloud computing.
En esta tendencia puso el acento Sanz al indicar que “si bien este tipo de proyectos se pueden enfocar en los tradicionales CPDs, cada vez más tienen también en cuenta la nube en tanto que plataforma para el desarrollo de aplicaciones, sobre todo, a la hora de aportar agilidad y de resolver los problemas de sobreaprovisionamiento de muchos clientes de mainframe”.
Ciertamente y si bien, como señaló Fito, “hace seis meses cloud computing se consideraba algo muy bonito de lo que hablar en los periódicos”, a día de hoy “existe un interés real en cloud”. No obstante, todavía nos encontramos en un estadio temprano y, por otro lado, “hay aplicaciones más preparadas que otras para trabajar en la nube”, apunta Sanz.
Así lo entiende también Surroca, quien partiendo de la idea de que “el principal atractivo de cloud radica en la posibilidad de convertir tus costes fijos en variables”, observa que “los clientes consideran cloud una alternativa en el caso de aplicaciones commodity, pero todavía existen reticencias a la hora de llevar el core a la nube, fundamentalmente debido a la exigencia de tener que mover los datos a este entorno y a la latencia de Internet”.
Se trata, por tanto, de un movimiento lento que está viendo impulsado por ciertos avances como, por ejemplo, “la posibilidad que recientemente ofrece Micro Focus de lanzar aplicaciones Cobol en modo cloud sin necesidad de migrar a Java”.
También desde Atos Consulting se reconoce que “cloud es un fenómeno que está evolucionando muy rápidamente y hay clientes que si hace meses consideraban cloud como algo muy lejano, hoy constatan que es una propuesta cada vez más presente en el mercado”, comenta Marcos.
En este sentido, hay una serie de ventajas a considerar tanto por parte de las empresas como por los proveedores de servicios ya que, como destaca Villaverde, “se trata de una vía muy interesante para que los proyectos de modernización no tengan que incurrir en una inversión de entrada muy importante y para desarrollar nuevas posibilidades de propuestas ligadas a cloud en materia de modernización”.
En conclusión y también en palabras de Villaverde, “cloud ayudará a cambiar la forma tradicional en la que se vienen dimensionando los CPDs para responder a cualquier contingencia y a evitar la multiplicación de entornos normalmente asociada a los proyectos de modernización”.
Fuente: http://www.computing.es/EncuentrosComputing/201003100013/Las-Factorias-de-Software-afrontan-el-reto-de-la-productividad-global.aspx
miércoles, 10 de marzo de 2010
Obtener algo positivo de las situaciones negativas
Una tenía varias grietas por las que se escapaba el agua, de modo que al final de camino sólo conservaba la mitad, mientras que la otra era “perfecta” y mantenía intacto su contenido.
Esto sucedía diariamente. La vasija sin grietas estaba muy orgullosa de sus logros pues se sabía idónea para los fines para los que fue creada. Pero la pobre vasija agrietada estaba avergonzada de su propia imperfección y de no poder cumplir correctamente su cometido. Así que al cabo de dos años le dijo al aguador:
“Estoy avergonzada y me quiero disculpar contigo porque debido a mis grietas sólo obtienes la mitad del valor que deberías recibir por tu trabajo”
El aguador le contestó: “Cuando regresemos a casa quiero que notes las bellísimas flores que crecen a lo largo del camino”. Así lo hizo la tinaja y, en efecto, vio muchísimas flores hermosas a lo largo de la vereda; pero siguió sintiéndose apenada porque al final sólo guardaba dentro de sí la mitad del agua del principio.
El aguador le dijo entonces: “¿Te diste cuenta de que las flores sólo crecen en tu lado del camino? Quise sacar el lado positivo de tus grietas y sembré semillas de flores. Si no fueras exactamente como eres, con tu capacidad y tus limitaciones, no hubiera sido posible crear esa belleza. Todos somos vasijas agrietadas por alguna parte, pero siempre existe la posibilidad de aprovechar las grietas para obtener buenos resultados.”
Esta historia titulada “El camino de la fuente” nos ilustra como muchas veces nos sentimos mal por algo que pensamos que no estamos haciendo bien, o que podría ser mejor, o por alguien que no encaja perfectamente en como nosotros entendemos que tendría que ser, o comportarse, y así un larguísimo etcétera, pero aun así ese hecho seguramente estará produciendo algo positivo que tal vez nos pasa desapercibido.
¿Cuántas cosas te han causado preocupación o mal estar y con el paso del tiempo se han convertido en algo positivo? Si buscas en tu memoria seguro que encuentras más de una.
Entonces, ¿no sería bueno relajarse y no preocuparse tanto por esos detalles que no son del todo perfectos? ¿por esas situaciones que nos hacen sentir mal?
Como emprendedor guerrillero es fundamental que encuentres siempre la forma de obtener algo positivo de esas situaciones o emociones negativas.
lunes, 8 de marzo de 2010
La misteriosa desaparición de informáticos y telecos
He encontrado esta noticia y la verdad tiene su gracia.
Tras acoger al último 'baby boom' y experimentar una expansión sin precedentes, la Universidad española tiene ahora plazas de sobra, e incluso algunas aulas vacías. Pero en ningún sector se ha notado tanto esta caída de estudiantes como, paradójicamente, en el que más ha evolucionado y ha transformado nuestras vidas durante los últimos años: las tecnologías de la información y la comunicación (TIC).
Hace una década, tener internet en casa era un lujo, los teléfonos sólo servían para hablar por teléfono y la televisión no era ni digital ni terrestre. Todo el mundo sabía que el futuro era tecnológico: ser ingeniero o ingeniero técnico de telecomunicaciones o informática era una garantía de éxito, y las universidades estaban repletas de alumnos de muy distintas índoles y aspiraciones, mientras la Formación Profesional (FP) abandonaba poco a poco el sambenito de ser la gran asignatura pendiente de nuestro sistema educativo.
Ahora las tornas han cambiado. La innovación tecnológica ha cumplido su parte, pero las aventuras financieras del sector no siempre han salido como se esperaba; paralelamente, la FP ha aumentado su prestigio a medida que lo perdía la carrera universitaria, incapaz en muchos casos de cumplir las expectativas creadas.
En las TIC, el cambio de mentalidad ha sido acusado: en el curso de 1998-99, en pleno auge de la burbuja tecnológica, más de dos tercios de los estudiantes que se graduaban en el sector lo hacía como ingeniero o ingeniero técnico, mientras que la FP egresaba a un porcentaje minoritario. Tres años después, sin embargo, los graduados de FP ya superaban en número a todos los ingenieros, sumando los de ciclo corto y ciclo largo, y la tendencia se mantiene.
Las ingenierías TIC siguen disfrutando, como antes, de una menor tasa de paro y unos mayores salarios que la mayoría de carreras, pero el alto fracaso académico que aún arrastran y la oportunidad de acceder a trabajos similares con un ciclo superior de FP, de dos años de duración, ha ahuyentado a muchos alumnos.
Entre los cursos 2003-2004 y 2007-2008, las matriculaciones en Ingeniería de Telecomunicaciones han caído más de un 40%. En el caso de la Ingeniería Informática, cuyo descenso está agravado por la falta de regulación de sus atribuciones profesionales, el descenso se acerca ya al 50%.
El problema es que, según apuntan los expertos, las TIC configuran un sector estratégico para la economía del país, que en un futuro inmediato podría necesitar más ingenieros.
España tiene que saber en qué campo de actividad industrial y científica apuesta y los recursos humanos que va a necesitar, y tiene que saberlo desde ya, porque formar a un ingeniero son cinco, seis o siete años, no es algo que se pueda improvisar», señala Ernesto Martínez Ataz, rector de la Universidad de Castilla-La Mancha.
En la misma línea, Adrián Nogales, secretario general del Colegio Oficial de Ingenieros de Telecomunicación, argumenta que las TIC «son una tecnología de presente y de futuro, y son transversales a todas las áreas, por lo que cuesta pensar que no vayamos a necesitar ingenieros». Sin embargo, considera que la situación actual no es muy alentadora: «En el sector de las telecomunicaciones, ¿quién está desplegando redes de algún tipo?», lamenta.
Y, sin garantías inmediatas, los estudiantes acuden a opciones menos costosas. «La profesión de ingeniero de telecomunicaciones no es vocacional; se rige por el hecho de que el esfuerzo que vas a poner se verá después recompensado; si alguien se mete a ingeniero, sabe que va a ser duro, y después se puede encontrar trabajando en puestos en los que se siente subempleado», explica Nogales.
Los ingenieros informáticos, por su parte, consideran que el principal problema es la falta de regulación que atañe a su especialidad. «Deberíamos definir muy bien el sector: qué parte es para los 'telecos', qué parte es para la FP y qué parte es para los informáticos, porque todos tenemos hueco», demanda Joaquín González, presidente de la Asociación de Ingenieros e Ingenieros Técnicos en Informática (Ali)
Lo cierto es que los ingenieros de las ramas TIC siguen siendo los titulados que menos tardan en encontrar empleo; el problema es encontrar algo que tenga que ver, y esté al mismo nivel, de lo que se ha estudiado. Es habitual que, aunque una empresa demande formación técnica, ésta no requiera nunca, o casi nunca, la profundidad que se exige en la carrera; en otros casos, lo que se busca es la capacidad de aprendizaje que se le supone a un ingeniero, pero no precisamente para que ejerza su profesión rodeado de cables, máquinas y conexiones.
María Alonso, ingeniera de Telecomunicaciones de 30 años, ha pasado algunos meses en el paro tras trabajar en varias consultorías, destino habitual de muchos telecos, informáticos e industriales. «Las empresas lo que quieren son personas con experiencia y conocimientos en un tema concreto. Si acabas de terminar la carrera y entras con un contrato en prácticas para aprender sobre un tema, es perfecto; si no, creo que es difícil trabajar exactamente como 'teleco', por lo que muchas veces piensas que quizás es mejor hacer un módulo o un curso de formación específico que puede abrirte también muchas puertas», comenta esta profesional.
Eso es justo lo que cada vez piensan más alumnos. Más de un 20% de los estudiantes que aprueban la Selectividad en su rama científico-técnica, considerada tradicionalmente como el refugio natural de empollones y cerebritos, decide no ir a la Universidad. Lo paradójico es que los que van, una vez que dejan atrás los muchos años dedicados y el esfuerzo invertido, tampoco se arrepienten.
Según datos de la Cátedra Everis de la Politécnica de Cataluña, un 38% y un 35% de los ingenieros en Telecomunicaciones e Informática, respectivamente, cobra más de 30.000 euros cuatro años después terminar la carrera. Su situación es mucho mejor que la de otros titulados, como los arquitectos o los economistas, de los que sólo un 27,64% y un 10%, respectivamente, tiene un salario superior a los 30.000 euros.
Las estadísticas de la Politécnica de Madrid muestran que entre un 80% y un 90% de los ingenieros de estas áreas se muestran «globalmente satisfechos» con su trabajo. Si el mercado los acoge, los rectores los quieren y, llegado el caso, hasta puede que el país los necesite, ¿por qué no quieren ir? Así resume Alonso el dilema: «¿Volvería a estudiar la misma carrera? No lo sé. Quizás sea mucho esfuerzo para trabajar luego en áreas en las que puedes trabajar con un módulo profesional. Aunque, por otra parte, el hecho de haber estudiado 'teleco' te ayuda a tener no ya sólo conocimientos, sino también una mayor capacidad de análisis».
Fuente: http://www.elmundo.es/suplementos/campus/2010/572/1266966004.html
domingo, 28 de febrero de 2010
Intel: España es el país con más futuro para desarrolladores de aplicaciones. Que bien, ¿no?
El director general de Intel Corporation Iberia, Brian G. González, dijo a EFE que España es el país del mundo en el que los desarrolladores de aplicaciones cuenta con mejor posición debido a que están muy centrados en los sistemas abiertos que son el futuro.
Intel acaba de firmar un acuerdo con Nokia para crear una plataforma conjunta y abierta basada en Linux, para facilitar la creación de aplicaciones por los desarrolladores destinadas a todo tipo de dispositivos digitales.
González señaló que esta plataforma es candidata a servir de base, total o parcial, para la que quieren crear los principales operadores de telecomunicaciones de todo el mundo con el objetivo para evitar el actual problema de adaptar cada aplicación a los distintos sistemas operativos.
La plataforma de Intel y Nokia se apoya en la arquitectura básica de Intel X-86 que permite el acceso universal y en la experiencia del mayor fabricante de teléfonos móviles del mundo, dijo el directivo de Intel.
González señaló que en el Mobile World Congress de Barcelona le impresionó que se hablaba principalmente “de soluciones concretas de futuro, de software y estaban todos los grandes como Microsoft o Google”.
Se habló de modelos de uso del móvil a través de aplicaciones muy específicas, de bajo coste, puntuales y de poca complejidad, dijo, y ahí está la plataforma acordada por Intel y Nokia.
En esta nueva tendencia de ir a una plataforma abierta, dijo, los desarrolladores españoles tienen una gran ventaja, ya que el software libre está muy avanzado en España.
El director general de Intel explicó que el modelo de aplicaciones para el móvil se basa en los servicios a través de Internet, el Cloud Computing o Computación en la Nube que está revolucionando el sector, ya que hace que “la información esté cuando se quiera y en cualquier dispositivo y con total seguridad”.
Para Brian G. González, los servicios en la “nube”, lejos de provocar la creación de “ordenadores tontos”, exigen que “el procesador sea más listo que nunca”. “Tiene que haber un balance entre el rendimiento y la eficiencia energética y el PC tiene que contar con un disco duro con más memoria y conectividad”.
Para Intel, el año 2009 ha sido conservador en gastos de tecnologías para las grandes empresas, pero el año 2010 se presenta bien debido al tirón del nuevo sistema operativo de Microsoft Windows 7 y a la necesidad de renovar la informática antigua.
El primer trimestre, explicó González, “ha empezado sólido” y los nuevos procesadores de Intel que se incluyen en los ordenadores, están siendo bien acogidos, especialmente el Core 5 y anuncio la próxima salida al mercado del primer procesador de seis núcleos para el mercado de consumo, el Gulftown.
También hizo hincapié en la importancia que tendrá este año el plan Escuela 2.0 con la convocatoria de concursos públicos para facilitar portátiles a lo niños de quinto de primaria.
Vía: http://www.adslnet.es
domingo, 21 de febrero de 2010
Diferencias entre un buen líder y un mal líder
- Educar y lograr el desarrollo de toda la perfección que la naturaleza humana lleva consigo.
- Instruir y enseñar los conocimientos específicos a los subordinados.
- Dirigir y guiar su actuación.
- Inspirar confianza y despertar entusiasmo en los demás.
- Ser el primero en llegar.
- Señalar las infracciones.
- Nunca debe decir "YO", sino "NOSOTROS".
- Hacer que los demás de los miembros se motiven y encuentren su camino.
- No deberá inspirar temor o inquietud.
- Tener paciencia y no gritar.
- Demostrar interés por cada subordinado.
- No dejar en ridículo a ninguno de ellos.
- Cumplir sus promesas.
- No tener prejuicios.
Este video, nos muestra unas técnicas de motivación a la Japonesa. Os imaginais todas la mañanas una sesión así????
http://www.elmejorocio.com/ver-video-de-humor-online-tecnicas-de-motivacion-para-la-venta-17.html
martes, 16 de febrero de 2010
El Modelo Factoría
Modelo Factoría de Software es un sistema de desarrollo de aplicaciones basado en el ensamblaje de componentes modulares de software. Estos componentes tecnológicos se construyen y se prueban de manera independiente, para garantizar que realizan la función asignada y que, cuando se integren en la aplicación, funcionarán correctamente.
Este modelo nos permite acelerar el desarrollo de aplicaciones a través de la reutilización de componentes. El conocimiento y las herramientas empleadas en un desarrollo se aprovechan en los siguientes, de forma que Vector puede ofrecer a sus clientes soluciones extraordinariamente competitivas en plazos y presupuesto.
El otro resultado de esta metodología de desarrollo es un alto grado de calidad. El Modelo Factoría nos permite estandarizar todos los procesos de creación y desarrollo, de forma que podemos cumplir los estándares de calidad más exigentes incluso en los proyectos de gran volumen.
Ventajas del modelo Factoría
Estas son las principales ventajas que el Modelo Factoría aporta al cliente:
Reducción de costes
La reutilización de conocimientos y productos, junto con la optimización en los procesos de trabajo, nos permite ofrecer al cliente una mayor productividad a mejores precios.
Calidad del servicio
Las factorías de software son empresas especializadas en el desarrollo tecnológico, y por eso pueden ofrecer las mejores prácticas en gestión y producción de software. La estandarización de los procesos, el uso de metodologías rigurosas y el trabajo coordinado de las diferentes áreas de especialización de Vector aporta al cliente una solución rentable y fiable.
Adaptación a la carga de trabajo
El sistema de producción en factoría nos permite minimizar el impacto de las fluctuaciones en la carga de trabajo. Gestionamos de forma eficiente los picos y valles, y eso nos permite incrementar la productividad y optimizar el uso de los recursos.
Flexibilidad
El cliente siempre obtiene una respuesta rápida a sus necesidades, y consigue unos plazos de entrega más ajustados que recurriendo a cualquier otra alternativa.
Método onsite-nearshore
Las ventajas de este modelo de producción se completan con el método onsite-nearshore, que combina la presencia de un equipo de consultoría "onsite", es decir, en casa del cliente, con centros de producción "nearshore", situados cerca de las organizaciones para las que trabajamos.
El método, implantado con rotundo éxito en Estados Unidos, ha sido introducido en España por Vector. Nos permite ofrecer a nuestros clientes la infraestructura tecnológica que necesitan para desarrollar sus aplicaciones, así como un equipo experto especializado en nuevas tecnologías.
Ahorro de costes y cercanía
El método onsite-nearshore genera un importante ahorro de costes, ya que el cliente no necesita invertir en la infraestructura, y tampoco necesita contratar recursos ni crear un departamento específico para acometer el proyecto. Además, el modelo nearshore permite al cliente contar con un centro de desarrollo cercano, que no supone choques culturales porque habla su mismo idioma.
Las claves del Modelo Factoría
- Cómo se consigue. Con la unión de la experiencia, las tecnologías más avanzadas del mercado y la reutilización continua del conocimiento.
- Qué se consigue. Una gran rentabilidad y la máxima optimización de los costes.
- Flujo de trabajo. Está basado en el ensamblaje modular de componentes. Los proyectos circulan por las distintas áreas especializadas de Vector. Al igual que en una cadena de montaje, el desarrollo de las aplicaciones fluye a través de equipos profesionales especializados, y cada área aporta valor al producto.
Si todavía no ha tenido éxito en España el concepto de “Factoría de Software”, ¿por qué en DEISER ya estamos hablando de la segunda generación de factorías?. Empecemos la historia por el principio…
Outsourcing “pre” Factorías de Software.
Las grandes y medianas empresas, potenciales clientes de factorías de software, suelen optar en su gran mayoría por subcontratar programadores y analistas e integrarlos en sus departamentos de desarrollo ubicados en sus oficinas. Este modelo de outsourcing, tiene algunas ventajas aparentes frente a disponer de un equipo de desarrolladores trabajando en una localización fuera de las oficinas del cliente, sin embargo, el modelo de factoría permite una clara reducción de costes que todavía no se ha sabido aprovechar.
La cercanía e implicación con el cliente, que es el argumento que normalmente se esgrime para elegir el outsourcing “on-site”, no es una ventaja exclusiva de esta modalidad de subcontratación. Ya empieza a haber factorías de software que aportan consultores y analistas que temporalmente trabajan en la oficina del cliente. Esta tímida adaptación del modelo ha ayudado a que más empresas se planteen seriamente trabajar con factorías de software.
“Primera Generación” de Factorías de Software.
En España ya existe experiencia en el uso de factorías de software, con analistas “on-site” o sin ellos. Un buen número de empresas han trabajado con factorías off-shore (de
Ha habido experiencias positivas y otras que no lo han sido tanto, y en el proceso de aprendizaje de las empresas cliente, se ha mejorado en la madurez de los procesos y en la gestión y control de esta modalidad de subcontratación. Sin embargo, ya se conoce lo que se puede esperar de las factorías de software actuales y cuales son sus limitaciones.
Debilidad del modelo actual de Factoría de Software.
Cuando una empresa cliente decide “arriesgarse” a usar los servicios de una factoría, la motivación principal es la reducción de costes. Se da por hecho que contratando una factoría de
Incluso cuando se habla de factorías en, por ejemplo, Badajoz o Avilés, los argumentos son parecidos: que si muchos programadores prefieren quedarse a trabajar en su lugar de origen aunque ganen menos, que si el coste de la vida es mucho más bajo que en Madrid o Barcelona y los sueldos dan para más, etc, etc. Sin embargo, en este enfoque está precisamente el error y el punto débil de las factorías de primera generación.
Es un error pensar que el precio de un desarrollo de software tenga que estar ligado al coste de mano de obra de los sufridos programadores. Un modelo de negocio que se base en los bajos costes de personal no puede sobrevivir a largo plazo, especialmente en nuestro sector. La oferta de informáticos no cubre la demanda, ni en España ni en el resto del mundo, por lo que la presión de subida de salarios es muy fuerte (en la India y Argentina ya empieza a notarse). Por otro lado, al estar las factorías compitiendo en precio, los márgenes son muy bajos y éstas presionan para contener las subidas salariales. En un entorno como este, la rotación de programadores es muy alta, el compromiso es muy bajo, y la productividad y calidad decae al haber una falta de motivación sin precedentes.
Bajan los precios, Baja la calidad.
En un mundo ideal, los proyectos de desarrollo deberían presupuestarse según el valor aportado y no por el precio de horas/programador. Sin embargo, los clientes de servicios de factoría de software velan por sus intereses y si pueden comprar más barato, como es lógico, lo hacen. Los clientes creen conocer la estructura de costes de las factorías y aprietan hasta el límite en la negociación de precios; a esto, las factorías responden a piñón fijo contratando personal poco formado y barato, algo que tiene como consecuencia inmediata la bajada de calidad, incumplimiento de plazos y requisitos, y fracasos sonados de proyectos.
Así pues, las factorías de software lo tienen muy difícil, porque si no tiran precios saben que su competencia lo hará, y si aceptan proyectos tirando precios, saben que darán un mal servicio y que se arriesgan a perder dinero. Parece como si no tuvieran escapatoria.
La solución… en el próximo capítulo.
Es verdad es que he simplificado un poco la realidad, sin embargo pretendo que se vea con crudeza el problema de fondo en el que estamos inmersos tanto factorías de software como clientes.
Entonces, ¿tiene solución el problema?, ¿es compatible la calidad con los precios bajos? La respuesta a ambas preguntas es “Sí”, y para argumentarlo, en la siguiente entrega de este artículo hablaremos de las características de la “Factoría de Segunda Generación” y de cómo se resuelve el problema estructural que tienen las factorías actuales.
Iniciativa académica de IBM
Iniciativa académica de IBM
Recordada en estos días por IBM Developers Network, la Iniciativa Académica de IBM merece ser agendada por quienes estén en el alcance de sus servicios: estudiantes, investigadores, miembros de organizaciones de estándares. No sólo papeles, manuales, guías de trabajo sobre las áreas de trabajo de IBM, sino también acceso a servidores (disponibilidad de hardware):
Become a member of the IBM Academic Initiative to get no-charge access to hardware, full-version software, professionally developed courseware, tools, training, books, and discounts. Let us help you keep up with the latest technologies and reap the benefits of open source.
http://www.ibm.com/developerworks/university/software/