Archivo de la etiqueta: Tecnología

Size doesn’t matter

Somos afortunados, estamos viviendo un momento histórico de transformación en el ecosistema económico y social mundial.
Cambios tecnológicos, nuevos jugadores que imponen nuevas reglas y cambios radicales en la forma en que el mundo desarrolla comercio, las empresas se desarrollan, crecen, compiten y ganan nuevos mercados.
El mundo esta cambiando, no hace falta más que ver las noticias del último año para reconocer profundos cambios en la ecuación de valor que la sociedad esta generando.

Presenciamos la desaparición de grandes compañías (iconos de la era que estamos abandonando) y la transformación de industrias a un ritmo nunca antes imaginado. Desde la industria hasta los servicios, los ecosistemas productivos están viviendo un cambio de era.

Aerolíneas, bancos, industria automotriz, medios, telecomunicaciones, no hay industria donde tener reparo en el marco de una crisis económica y financiera que ha acelerado la cuenta regresiva del preludio a una muerte anunciada.

En un artículo en la revista Wired, Chris Anderson titula The New New Economy: More startups, fewer Giants, Infinite Opportunity argumentando las razones de estos cambios.

Hacia fines de los 80’s cuando internet empezaba a perfilarse como nuevo paradigma para la consolidación de la llamada “sociedad de la información”, el profesor del MIT, Tom Malone, comenzó a imaginarse las posibles repercusiones de esta nueva faceta de la humanidad.

Su trabajo, plasmado en distintos artículos definía proyecciones concretas para esta nueva era. Entre ellas aparecía una condena contra las grandes megacorporaciones y los modelos de empresas topdown del siglo XX al afirmar su “descentralización y externalización“, lo cual eventualmente derivaría en un modelo económico e industrial formados por redes de nodos cuya conexión es posible por la aparición de la red y la evolución de la tecnología. Evidentemente este escenario que Malone previó hace 20 años no contempla la supervivencia del tradicional modelo corporativo.

Mi experiencia personal, con 12 años en la espalda de vida corporativa, me enseñó que vivir inmerso en el mundo de estos gigantes adormece cierta parte de nuestra conciencia. Uno comienza a sentir un halo invencible, porque atribuimos (erróneamente claro) que el tamaño es el único atributo que a una compañía le asegura su subsistencia.

Por otro lado, el mundo nos muestra como nos resistimos a este cambio de era. Es natural, son décadas post revolución industrial donde aprendimos erróneamente de nuevo, que el destino de una empresa era crecer y crecer sin importar la escala de asociación con el valor que generaba, la estrategia que construía, las personas con las que contaba o quienes eran sus actuales competidores o peor aún, nos olvidamos de buscar nuevas ventajas competitivas.
En ese contexto, se abre el debate del estado ingresando como rescatista de grandes empresas. Los casos de General Motors, Bank of America y AIG dejan al desnudo nuestros temores a dejar a la deriva a empresas que se volvieron demasiado grandes y salvarlas por el sólo hecho (por más loable que esto sea) de rescatar a sus empleados.

Sin embargo, la nueva era que Malone anunciaba tiene sus fundamentos y alternativas.

En una entrevista hecha en 1998, Malone afirmaba en la revista Wired:

“Imagina a un AT&T que se fragmenta no en dos o tres grandes compañías, sino en doscientos o trescientos mil pequeñas compañías”

Dos escenarios posibles para las grandes corporaciones que han dominado sus respectivos mercados durante los últimos 20, 30 o 50 años: agonizar lentamente y desmoronarse, o descentralizares voluntariamente en pro de modelos orgánicos de organización laboral.

“Esta especie de radical y voluntaria descentralización, representa una atractiva y viable alternativa para las grandes compañías”

Por su parte Paul Graham, referente en el mundo de los startups de tecnología, explica así la insostenibilidad corporativa:

“Resulta ser que la regla que afirma que las organizaciones grandes y disciplinadas triunfan, necesita ahora un pequeño apéndice al final con la advertencia: únicamente en escenarios que cambian lentamente. Nadie sabía lo que pasaría cuando el ritmo del cambio alcanzara cierta velocidad”

¿Por qué ya no tiene sentido el modelo clásico de crecimiento perpetuo buscado por los modelos de la era industrial ?

Tal vez los trabajos de Ronald Coase (Nobel Economía 1991) y su teoría de los costos de transacción nos den la respuesta según cita el artículo de Wired.

La gran integración vertical de las grandes corporaciones fue creada para minimizar el costo de transacción (costos implícitos en la coordinación y el intercambio de información) entre los equipos de sus cadenas de producción.
Es decir, la existencia de un área de empresa tiene sentido cuando los costos para realizar una transacción dentro de la misma compañía son menores que si se decidiera tercerizarla.

Sin embargo, con el desarrollo de la tecnología y la aparición de la red, hoy se pueden obtener los mismos resultados, de forma más eficiente y a costos menores fuera de las paredes de las grandes corporaciones. He aquí donde la teoría de los costos de transacción hacen desvanecer el sentido de la verticalidad de las megacorporaciones.

Hoy se puede ser “grande” en el corebusiness concentrándose en las funciones de valor de la empresa y tercerizando a través de la tecnología las funciones que otrora estaban integradas en la cadena de valor.

Este fenómeno resulta en que pequeñas organizaciones tienen la misma efectividad de interconexión que las grandes corporaciones verticales, gozando además de otros beneficios: flexibilidad, inmediatez, agilidad, y cooperación orgánica, mientras que los gigantes en la búsqueda de integración vertical y economía de escala perdieron esas mismas capacidades.

El tamaño ha dejado de ser una ventaja competitiva, y sí, somos afortunados, nos encaminamos hacia una nueva era apasionante.

Anuncios
Etiquetado , , , ,

Realidad aumentada y sexto sentido

De las tecnologías emergentes, una de las que más me apasiona es “la realidad aumentada” (augmented reality).
Desde mi punto de vista tiene un poder de aplicación mucho mas inmediato que la realidad virtual, también es menos compleja en varios aspectos y de mayores aplicaciones prácticas.
¿ En que se diferencian ?
La realidad aumentada consiste en uno o más dispositivos que añaden información virtual a la información física ya existente. Esta es la principal diferencia con la realidad virtual, puesto que no sustituye la realidad física, sino que sobreimprime datos informáticos al mundo real.

Cuando hablo de aplicaciones práctica, pienso en aplicaciones médicas, industriales, militares, domésticas, entretenimiento y gaming, cientos. El límite es la imaginación.
Aquí hay un ejemplo de BMW, un uso posible en la industria automotriz:

Imaginate ahora todo lo que se podría hacer con este tipo de tecnología. Imaginate por un momento ingresar al museo de Louvre en París, que te entreguen en la entrada un par de anteojos con geolocalización y que puedas recorrer el museo recibiendo en tu retina información complementaria a las obras que vas observando a lo largo de tu recorrido.

El concepto es enorme. La idea de poder enriquecer con “metadata” nuestro entorno real habilita a inifinidad de aplicaciones prácticas.
Pattie Maes es directora e investigadora en el MediaLab del MIT. Ella dice estar intrigada con la posibilidad de desarrollar un “sexto sentido” que le posibilite a los humanos acceder a esa “metadata” y que pueda ser relevante en el momento de tomar una decisión.
En su presentación en TED (subtitulada en español) habla y demuestra con ejemplos de aplicación real los usos de esta tecnología que, como se ve en el video, aún esta en plena etapa de desarrollo, pero con un grado de avance significativo.

En el futuro cercano veremos cada vez más la aparición de estas nuevas formas de interactuar con el mundo que nos rodea invadiendo cientos de espacios donde hoy tenemos carencias de información ó en su defecto, donde la suma de esta información al mundo real pueda potenciar nuestro realidad cercana.

Las oportunidades de desarrollo de nuevos negocios en este campo también son inmensas. Interesante para monitorear y seguir.

Etiquetado , , ,

¿Podrá este hombre destronar al rey?

sw-portraitCada vez que aparece la posibilidad de que alguna tecnología de búsqueda se convierta en el nuevo Google, la web se revoluciona.

El año pasado fue el turno de Cuil, que tuvo sus cinco minutos de fama. Si no lo recuerdan, no se preocupen, desaparecieron tan rápido como llegaron y sólo demostraron que con una buena campaña de PR se puede hacer mucho ruido en la web….pero nada más.

El nuevo actor en escena es este señor de la foto: Stephen Wolfram que acaba de generar un revuelo importante al anunciar en su blog que estaría pronto a liberar Wolfram Alpha, un motor de respuestas a preguntas en lenguaje natural.

¿Y quien es este señor?. Para los que venimos de mundo ingenieril, es el creador de uno de los programas (lenguaje en realidad) más usado en muchos ámbitos científicos y académicos: Mathematica. Todavía recuerdo en mis años de universidad las horas que he pasado jugando con este software, para nosotros, unos nerds con ambiciones de ingenieros facinados por el cálculo, este programita hacía maravillas.

Pero Wolfram ya está acostumbrado a hacer ruido. En 2002, publicó un libro llamado New Kind of Science donde propone una controvertida teoría que sostiene que todos los procesos producidos por el humano o por la naturaleza pueden verse como cálculos computacionales o son reducibles a algoritmos que calculen la interacción entre pequeños programas. Y ya en el comienzo aclara que esto, en definitiva, es la continuación de algo que empezó hace tiempo. “Hace trescientos años la ciencia fue transformada por la dramática nueva idea de que reglas basadas en ecuaciones matemáticas podrían ser usadas para describir el mundo natural. Mi propósito en este libro es iniciar otra transformación similar e introducir una nueva clase de ciencia basada en tipos de reglas mucho más generales, que pueden tomar cuerpo en la forma de simples programas de computación“.

Todo indicaría que este señor no vende humo, pero para saberlo a ciencia cierta hay que esperar hasta mayo que es la promesa de lanzamiento.

¿Qué es lo interesante en Wolfram Alpha? : la lógica subyacente en los buscadores actuales se basa en la devolución de links dónde en teoría está la respuesta a nuestras búsquedas, si buscamos en Wikipedia, la devolución son documentos relativos al tema en cuestión. Lo que ésta tecnología propone es construir (o calcular como dicen ellos) respuestas a preguntas concretas. Hay un buen ejemplo de esto en una experiencia del grupo de computación científica e inteligencia artificial del MIT: Start.

Entonces, ¿podrá este hombre destronar al rey? En un principio no, dado que lo que se propone no es un buscador de contenidos en la web o un intermediario entre el usuario final y la inmensidad de sitios y contenidos de Internet.

De todos modos el desafío es enorme, ambicioso y no hay tecnología de web semántica detrás de Wolfram Alpha, lo que supone sería el futuro de la web.

Link: Wolfram Alpha is coming and it could be as important as Google.

Etiquetado , , , ,

Una vuelta por el futuro según Microsoft

Este video se llama “2019” y fue presentado por Microsoft en la Wharton Business Technology Conference hace algunos días.

No conozco a ciencia cierta quien le desarrolla a Microsoft estos videos futuristas, pero al igual que otros que ha presentado tiempo atrás, son realmente creativos, asombrosos e inspiradores.

Bienvenidos a un futuro con conexión permanente y dispositivos controlados por tacto según la visión de Microsoft.

Etiquetado , , ,

Menos es más, aprovechar distinto la Ley de Moore

Mi primer computadora, allá por 1984 fue una Sinclair ZX Spectrum, luego fue una PC XT, más tarde llegó mi 286, luego 386 y finalmente Pentium en 1995. En un período de 10 u 11 años, cambié 5 veces de computador personal, sin embargo la capacidad de procesamiento no se duplicaba en promedio cada 2 años, sino que, aumentaba exponencialmente.

Durante años, la industria ha progresado siguiendo la ley de Moore, derivados de una observación formulada en 1965 por Gordon Moore, cofundador de Intel. Su formulación original era más bien técnica, y se basa en el número de transistores que pueden ser integrados en un chip, pero fue adoptado como una hoja de ruta por parte de la industria, de modo que se convirtió en una profecía autocumplida. En la práctica, se reduce a lo siguiente: el costo de una cantidad dada de potencia cae a la mitad aproximadamente cada 18 meses, por lo que la cantidad de potencia de cálculo disponible a un determinado precio se duplica durante el mismo período.

Esto ha dado lugar a un incremento geométrico en el poder de procesamiento de las computadoras de escritorio, computadoras portátiles, teléfonos móviles, etc. y ha dado lugar a la mejora constante de las características más significativas que se puede añadir a estos productos cada año, sin aumentar el precio. En cierto modo, el razonamiento del consumidor era que cada vez que compraba una máquina nueva, costaría alrededor de lo mismo que la anterior, pero con la cual podría hacer muchas más cosas.

Pero ahora las cosas están cambiando, en parte porque la industria está madurando, en parte debido a la recesión, en parte debido a los cambios de hábitos en el uso de las computadoras. De repente hay mucho más interés en los productos a los que se les puede aplicar la otra cara de la ley de Moore: en lugar de proporcionar cada vez mayor rendimiento al mismo precio, proporcionan un nivel de rendimiento particular a un precio cada vez más bajo.

La manifestación más visible de esta tendencia es el aumento de las Netbooks, o portátiles de bajo costo. Las Netbooks son ideales para navegar por la web, revisar informes en un avión, correo en un aeropuerto, visitar clientes, realizar en general las tareas típicas de oficina. No podrás ejecutar la última versión de un juego y te verás limitado en la capacidad de almacenamiento y potencia de procesamiento. Se trata, en suma, de ordenadores comparables tal vez con los que existían hace 3 años atrás. Pero son baratos. Cuestan alrededor de U$S 300 en Estados Unidos y durante el 2008 fueron los productos estrellas en ventas pasando de 182.000 unidades en 2007 a 11 Millones en 2008, y llegará a 21 Millones durante este año, según IDC. Para tareas comunes, tales como leer correo electrónico, comprar en línea, editar documentos online, entre otras actividades, son lo suficientemente buenas y superan en comodidad de uso a los germinales teléfonos móviles inteligentes.

Después de todo, el uso de la computadora, se ha vuelto, mayormente, un instrumento de conexión a la red, el browser se ha vuelto en realidad “el sistema operativo” de las PCs.
Que Google se haya metido en el mercado de los navegadores con Chrome, no significa que quiera competir con Microsoft o Firefox por tener un mejor navegador, es simplemente la respuesta a una estrategia que responde a que el procesamiento ya no es local en la computadora del usuario, sino en la nube, lugar donde, en mayor o menor tiempo los usuarios procesaran la mayor parte de sus actividades diarias.

La idea ya no es valorar “el poder de procesamiento”, dado que, para el usuario promedio, el poder de cómputo de cualquier sistema actual es “suficientemente bueno” (good enough computing).

El enfoque del “good enough computing” también funciona con el software. El suministro de “software como servicio”, a través de la web, como lo ha hecho Salesforce.com por lo general significa sacrificar cientos de funcionalidades que en definitivas no son usadas por los usuarios. Google Docs carece de la fantasía características de Microsoft Word, por ejemplo. Pero casi nadie utiliza todas las características de todos modos, y Google Docs es gratuito. Una vez más, muchos usuarios están encantados de evitar un mayor rendimiento con el fin de ahorrar dinero. Incluso Microsoft ha pensado en esto para su próxima versión de Windows, su objetivo no es hacerla más compleja y con más funcionalidades que Vista (que justamente por esto demostró ser un fracaso) sino para correr más rápido y utilizar menos recursos. Si es así, será la primera versión de Windows que hace que los ordenadores funcionen más rápido que la versión anterior.
La ley de Moore no ha sido derogada, pero más personas están tomando el dividendo en efectivo que proporciona, en lugar de los ciclos de procesador.

Etiquetado , ,
A %d blogueros les gusta esto: