Trevor Jones

Seguramente no conozcas al compositor de bandas sonoras Trevor Jones.

No deja de ser un segundón. No es John Williams. No es Jerry Goldsmith. No es Bernard Herrmann. No es Maurice Jarre. ¿Pero por qué no es un compositor de su talla?

A veces el ser un segundón o un primera espada es algo que depende del puro azar. Uno suele conocer los casos de éxito que convierten a la Cenicienta en princesa, pero no los opuestos, en que no llega esa oportunidad y por qué.

Trevor Jones tiene -o tuvo- desde luego, todas las cualidades necesarias para haber pasado a la historia como uno de los compositores de bandas sonoras más importantes de todos los tiempos. Sin embargo, la mala suerte – o lo que es lo mismo, la incompetencia de otros – se interpuso en su camino hacia la gloria.

Como cualquier otro compositor, se inició con películas de poca monta, escalando lentamente posiciones y mejorando su imagen como compositor. Su primera película importante sería Excalibur (1981), con la famosa banda sonora que incluía temas de Carmina Burana y música de óperas de Wagner.

Y al igual que sucede en cualquier empleo, se obtiene la posibilidad de un ascenso, se demuestra las habilidades y uno se dedica a consolidar lo conseguido. La gran oportunidad para Trevor Jones llegaría en 1992.

El último de los mohicanos (The Last of the Mohicans), una película de 1992, basada en una famosa (y poco rigurosa) novela del siglo XIX, para la que se requirieron los servicios de Trevor Jones.

Aunque la épica de los indios buenos era interesante, y la película fue todo un éxito, hasta el más desconocedor de cine la recuerda por una única cosa: su banda sonora.

Trevor Jones hizo un trabajo magnífico, tan bueno que sólo con su música, fue capaz de dar vida a una película que en otro caso habría resultado floja. Lo que seguro que no conoces son las condiciones de trabajo del compositor.

El director, Michael Mann, le sugirió que compusiera una banda sonora con música electrónica (la moda de la época y aquello en lo que más estaba trabajando el compositor; Por eso le eligió). Y acorde a los requisitos, Trevor Jones le compuso una banda sonora con música electrónica (los abominables sintetizadores).

Pero pasado un tiempo, Michael Mann cambió de opinión: una música para orquesta sonaría mucho mejor en una película épica como The Last of the Mohicans. Con lo que Trevor Jones tuvo que rehacer la banda sonora por completo.

Pero eso no fue todo. La película era muy larga y hubo que ir cortando y cortando el metraje. Y con él, la banda sonora. A Trevor Jones le tocó ir reeditando una y otra vez la banda sonora, cada vez con menos tiempo y con mayor presión. Y me imagino que con más mala gana.

Los tiempos se acortaron tanto que el compositor no daba abasto y se vio obligado a recurrir a los servicios de otro compositor, Randy Edelman (el compositor de la música de Mc Gyver) para que le ayudara en algunos arreglos menores.

Al recurrir a otro compositor, la banda sonora ya queda automáticamente excluida de la candidatura de los Oscars. Y eso fue lo que ocurrió. Para colmo de sufrimiento de Trevor Jones, la música se hizo tan famosa que no sólo potenció toda la película, sino que ayudó a que la película lograse el Oscar al mejor sonido.

Es decir, compuso una de las pocas buenas películas que se sostienen en una banda sonora extraordinaria y no sólo no pudo optar a un premio justo, sino que hubo rumores de que se le despidió por no ser capaz de terminar la banda sonora a tiempo.

Qué duda cabe que como gran compositor que es, siguió recibiendo buenos trabajos, nunca encargos extraordinarios. No es lo mismo un compositor con Oscar, que uno nominado a los Oscars que otro que nunca lo ha sido.

En 1998 compuso la banda sonora de Dark City (la fallida precursora del concepto Matrix). Otra banda sonora excelente, pero insuficiente para levantar una película menospreciada en su tiempo.

Sea este mi tributo a Trevor Jones, un compositor infravalorado, que ya nunca llegará a nada. Pero que pudo ser uno de los más grandes. Y que si no me equivoco, no ha recibido ni una sola nominación a los Oscars.

Los 25 hoteles mas grandes del mundo

A la hora de valorar cuál es el hotel más grande del mundo, el criterio no es el lógico: mayor número de metros cuadrados, o cúbicos, del mundo. El criterio que se emplea es simple y llanamente el número de habitaciones. Así, un hotel claustrofóbico del centro de Nueva York puede ser más grande que un resort de Punta Cana.

El ranking de hoteles en Europa o España es tan complejo que algunos ni siquiera se atreven a decir que son el hotel más grande de Europa y optan por decir que son el segundo más grande, pero sin saber cuál es el primero. Y es que continuamente están abriendo, cerrando, reformándose hoteles. Es un puesto muy precario y temporal.

Para colmo de complicaciones, uno de los principales candidatos europeos es el Lopesan Costa Meloneras, de Gran Canaria. Según el interés que uno tenga, puede considerar que las Islas Canarias están en Europa o en África. Este hotel es impresionante por sus dimensiones y tiene 1.136 habitaciones.

Posiblemente lo supere la horrorosa reliquia stalinista del Ukraine Hotel, en Moscú. Un rascacielos de los años 50 que alberga más de 1.000 habitaciones, al cual más hecha pedazos.

En general los rankings de hoteles son la información más inexacta que puedas encontrar en la red. Las cifras bailan de un sitio a otro. En parte porque ocurre como con las montañas rusas, que cuando se construye un nuevo Parque de Atracciones, uno de los requisitos mínimos es que tenga la montaña rusa más grande, aunque sólo sea a nivel nacional.

La lista de hoteles más grandes del mundo es increíble, puesto que de los 25 hoteles más grandes del mundo, 19 están en la misma ciudad. Y esa ciudad es Las Vegas.

No importa como lo mires, siempre ocupan los primeros puestos. El primero está en las Vegas, el segundo en Malasia, y luego tercero, cuarto, quinto y sexto en Las Vegas:

25 Planet Hollywood (Aladdin) Las Vegas 2.567 habitaciones
24 Harrah’s Las Vegas 2.576 habitaciones
23 Imperial Palace Las Vegas 2.635 habitaciones
22 Bally’s Las Vegas 2.814 habitaciones
21 Disney’s Pop Century Resort Orlando 2.880 habitaciones
20 Gaylord Opryland Resort Nashville 2.881 habitaciones
19 Treasure Island Las Vegas 2.885 habitaciones
18 Paris Las Vegas 2.916 habitaciones
17 Las Vegas Hilton Las Vegas 2.956 habitaciones
16 Venetian (Macau) Macau China 3.000 habitaciones
15 Monte Carlo Las Vegas 3.002 habitaciones
14 Mirage Las Vegas 3.044 habitaciones
13 Caesars Palace Las Vegas 3.348 habitaciones
12 Hilton Hawaiian Village Honolulu 3.386 habitaciones
11 Flamingo Las Vegas 3.565 habitaciones
10 Circus Circus Las Vegas 3.774 habitaciones
9 Bellagio Las Vegas 3.993 habitaciones
8 Excalibur Las Vegas 4.008 habitaciones
7 Ambassador City Jomtien Thailand 4.210 habitaciones
6 Mandalay Bay / THEHotel Las Vegas 4.332 habitaciones
5 Luxor Las Vegas 4408 habitaciones
4 Wynn Las Vegas / Encore Las Vegas 4.750 habitaciones
3 MGM Grand Las Vegas 5.044 habitaciones
2 Genting Highlands (First World Hotel) Malaysia 6.118 habitaciones
1 Venetian / Palazzo “MEGACENTER” Las Vegas 7.128 habitaciones

Repugnante la forma en que el Monte Carlo de Las Vegas le robó el puesto (15º a día de hoy) al Venetian de Macau. De 3.000 habitaciones, ¡A 3.002! Hay que tener cara y poca vergüenza.

Ponderar esta lista es interesante no sólo en sí misma, sino también para atender a todos esos rankings que se ven por Internet. Los diez mejores libros, los cien destinos que has de visitar antes de ser asesinado, las mil mejores poesías, los mejores blogs.

El patrón anterior es numérico. No son los mejores hoteles, de hecho la mayoría merecerían un final mucho peor que el de las Twin Towers. Pero al ser mensurable, salvo argucias como la del hotel Monte Carlo no hay ni trampa ni cartón: esos son los más grandes.

Pero en los rankings que admiten opiniones personales, se ven auténticas basuras que se distinguen de un ranking serio y confiable precisamente en lo que aquí NO vemos: en la excesiva distribución de los datos.

Por ejemplo, este ranking de las mejores playas nudistas de España. Es simplemente escandaloso, y no por los desnudos.

Justo hay una playa (y sólo una) en Galicia, otra en Asturias, Cantabria, País Vasco, Cataluña, Comunidad Valenciana, Murcia, Andalucía, Canarias y Baleares. ¡Es el peor ranking que he visto en toda mi vida!

La lógica matemática exige que una comunidad tuviera por lo menos tres playas nudistas y otras cuatro o cinco, ni una sola.

Luego aparte, leyendo las playas, se nota que la persona que lo ha escrito no tiene ni idea. Pero ya el hecho de la excesiva distribución de los datos demuestra que el ranking ya de por sí es malo.

Que os sirva de criterio a la hora de distinguir lo bueno de lo malo. Una lista en que no se repitan autores, no se repitan países, no se repita nada, es una lista que en vez de “los mejores” debería titularse “unos cuantos, cada uno distinto del otro”. Y seguramente casi ninguno sea de los mejores.

Big Ben. Siempre funcionando

En Informática existe el concepto de Uptime, o “tiempo funcionando”. Un sistema se considera más seguro y estable en tanto en cuanto pase más tiempo sin interrupciones en su funcionamiento.

Como ejemplo de un mal dato de uptime, se suele recurrir al Sistema Operativo Windows 95, que por un error de programación no podía estar operativo más de 49.7 días seguidos. Es decir, que si iniciabas Windows, abrías cualquier programa y esperabas 50 días, te encontrarías que en algún momento el ordenador se había reiniciado.

Pero para los buenos ejemplos, uno suele pensar en páginas web muy redundantes y fiables como Google o Bing. En estos casos, en lugar de hablar del tiempo que están caídos, se menciona el porcentaje de tiempo que han estado funcionando correctamente. Normalmente cifras del orden del 99,99% y algunos nueves más.

En la página de la Wikipedia sobre uptime se menciona como récord ordenadores que han estado hasta 18 años sin tener que apagarse. Me encantan los detalles que la Britannica nunca usaría:

Hay rumores que dicen que en enero de 2008 Iarnród Éireann tuvo una máquina OpenVMS operativa durante 18 años seguidos, y que se reinició por culpa del efecto 2000.

Son rumores, pero siempre me han gustado los casos de efecto 2000 a posteriori. Seguirán ocurriendo eternamente aunque en una escala minúscula.

Para encontrar ejemplos de máquinas que han estado funcionando sin interrupción, siempre se pueden encontrar rumores, y pirados en un garaje que han tenido una bombilla encendida desde los tiempos de Edison. Pero el mejor ejemplo que tal vez exista, y si sabes uno mejor ya tardas en comentarlo, de máquina que ha estado funcionando sin errores, durante muchos años, es el Big Ben de Londres.

La torre y el reloj se completaron en 1859. El reloj en sí mismo es famoso por su precisión. Pues bien, funcionó sin la más mínima incidencia desde su inauguración hasta la I Guerra Mundial, esto es, hasta el año 1916.

big-ben

Ahí van, como si nada, 57 años funcionando impecablemente. Pero es que en 1916 el reloj no dejó de funcionar, sino que se apagaron las luces por la noche y se silenciaron las campanas, para no ponérselo fácil a los bombarderos alemanes. Así estuvo dos años, sin dejar de funcionar.

Llegó la II Guerra Mundial y la cosa se puso más fea: El 1 de septiembre de 1939 se volvieron a apagar las luces, que no las campanas. Y el reloj, siguió funcionando correctamente.

La primera avería verdadera no llegaría hasta el fin de año de 1962. Que ya es mala suerte fallar justo en ese día, pues bien, después de 103 años, por el frío excesivo que llenó de nieve y hielo las agujas, en un proceso de auto-conservación digno de provocar la exhumación del cadáver del inventor, colocarle un frac a estos restos y darle de prisa y corriendo un premio Nobel- de lo que fuera- el reloj se limitó a provocar un retraso de diez minutos. De ese modo llamó la atención sobre los problemas y evitó que se dañara la estructura del mismo.

Por agotamiento de los mismos materiales, el reloj tuvo una avería gravísima el 5 de agosto de 1976, una de las piezas no soportó más de 120 años de torsiones y se hizo añicos, rompiendo gran parte del mecanismo del reloj.

Desde entonces las averías se han multiplicado, posiblemente por el desconocimiento tecnológico de los mismos relojes. No puede ser que un reloj soporte dos guerras mundiales y 100 años sin fallar, y luego haya averías sucesivas en los años 2005, 2006 y 2007.

Big Ben, tú sí que eres un reloj. Y lo mejor de todo es que casi todo el mérito de su creación se debe a un aficionado relojero y abogado de profesión: Edmund Beckett.

La crisis web 2.0

Vaya por delante que el término web 2.0 es penoso.

Cuando comenzó la crisis económica del 2007, llamada crisis de la subprime, muchos de los que se dedican a negocios en Internet incluso se alegraron. La poco profesional economía del ladrillo se vendría abajo. Los que se habían jactado de ser triunfadores pagarían todos sus pecados. Y llegaría por fin el momento de que las nuevas tecnologías ocuparan un lugar de alguna importancia en la economía española.

Poco a poco la crisis se fue extendiendo y fueron más y más los sectores afectados por ella. Finalmente, como no podría ser de otra forma, la llamada web 2.0, la web social o como se la quiera llamar, acabó siendo una víctima más.

Al comienzo de la crisis uno podía encontrar las digresiones de supuestos expertos en tecnologías que explicaban que la crisis no podía afectar a las web 2.0. Es el tipo comentario en el que da igual si lo que dices tiene alguna base o no. Sabes que decenas de personas te van a enlazar, como si por eso hubiera más probabilidad de que fuera verdad lo que dices.

La reputación en estos casos se ha creado de forma antilógica. Uno dice algo que todo el mundo quiere oír. La gente enlaza a esa opinión y ya lo tienes: la opinión enlazada se convierte de repente en prestigiosa.

Repitiendo mucho el proceso uno se convierte en lo que se dice un gurú. Basta con decir lo que los demás quieren escuchar. Y los gurús lo demostraban: Internet saldría reforzado de la crisis.

El principal argumento era que en la crisis punto com no había nada de nada y era lógico que muchas empresas desaparecieran. Pero ahora se estaban cimentando servicios útiles, mantenidos por la comunidad. Y los costes eran muy bajos.

Desde luego, la crisis es mucho menor que la de las puntocom. Por aquel entonces todas las grandes empresas se habían gastado obscenas cantidades de dinero “para estar en Internet”. Para no quedarse atrás. Es lo que los gurús de aquel entonces le habían dicho que había que hacer.

Con la web 2.0 todo sale mucho más barato. Con poco dinero te montas una red social. Uno de los mayores malgastos en dinero de la web 2.0 es el proyecto de Keteke, de Telefónica. Y sólo ha costado unos diez millones de euros.

Pets.com, el paradigma de la crisis puntocom, causó pérdidas por valor de 300 millones de dólares. Más de veinte veces más. Y como ella hubo muchas otras. En la nueva web, los proyectos son más modestos y aunque pueden resultar mucho peores que los de los comienzos de Internet, lo malo si barato, no tan malo.

Y es que a fin de cuentas la llamada web 2.0 es un internet lowcost. Más que llamarla la web participativa, se la podía haber llamado la web barata.

En los orígenes de Internet, todo se hacía a base de tecnología y trabajo manual. Cientos de personas escribiendo el contenido de las páginas. Expertos esforzándose porque aquello se pudiera visualizar en las páginas de los navegadores. Había que pagar, y bien, para conseguir toda esa mano de obra.

Luego llegó lo de la web colaborativa. Y como las tecnologías se hicieron más sencillas, unido al aumento del ancho de banda, uno podía pasar a tener lo mismo que hacía muchos años por mucho menos dinero.

Empleados que rellenan los textos y suben las imágenes -> Usuarios.
Expertos en tecnología que hacen páginas web -> Software “gratis” que puede usar cualquiera.
Expertos en optimizar páginas web -> Mayor ancho de banda, para qué optimizar cuando puedes enviar 20 veces más información por el mismo dinero.

Desde luego, de toda la ecuación, la más importante es la primera, pues sin usuarios que rellenen los contenidos, no hay nada que hacer. De ahí el énfasis en lo de la Web social.

No quiere esto decir que desapareciera la mano de obra de los nuevos proyectos de Internet. Sólo que la necesidad era mucho menor. Un censor (o editor, o gestor de comunidad, según el aire que le quieras dar a tu trabajo) puede controlar lo que suben y editan más de 100 personas. Si para las penosas páginas de los años noventa, con cuatro noticias y tres vínculos, necesitabas cientos de empleados, ahora puedes tener una página 100 veces más rica con 10 veces menos empleados.

En fin, que se estaban creando cosas nuevas, más sencillas de crear y más útiles e interesantes. Pero ante todo, productos de bajo coste. En dos tardes te puedes crear un portal sobre pisado de uvas. Lo único difícil es conseguir llenarlo de personas dispuesta a escribir (gratis) sobre el pisado de uvas.

Al hilo de tanta baratura, surge el concepto del emprendedor web 2.0. Normalmente es una víctima de la crisis puntocom, pero con la lección aprendida. Es decir, que no aprendió nada.

Ve que no hace faltan muchos recursos para crear un portal. Luego todo depende de estar bien relacionado y conseguir llamar la atención. De ese modo se crea una comunidad que crea los contenidos. Y ya se tiene un negocio.

Y entonces estos emprendedores se convierten en empresarios. Crean una página, van a las reuniones de emprendedores, a los concursos de emprendedores, a los eventos de Twitter, de bloggers, de Facebook, de lo que haga falta. Se hacen “amigos” de los demás y se crea una relación circular tan grande que ni el mismísimo Google es capaz de intuirla.

Entre todos se enlazan, todos hablan bien de los proyectos de los demás. Todos tienen Twitter, todos tienen Facebook, todos tienen Iphone, todos son lo mismo.

Por supuesto, al margen de todo esto existe una economía de Internet real. Proyectos que llevan años, que tienen empleados, que ganan dinero. Hay muchos, como las agencias de viajes que llevan años en la red, o los portales de empleo líderes. O de venta de pisos. O de anuncios por palabras. Hay muchos negocios de verdad en Internet.

Pero la web 2.0 es más de un tipo que crea un proyecto de la nada, que no tiene nada y que acaba…en nada. ¿Dónde están los ingresos para una web 2.0? Normalmente se usan como ejemplo grandes páginas de economía real y se tratan de extrapolar a ejemplos de pacotilla. El Mundo está ganando mucho dinero con la publicidad, luego este, mi blog, debería tener también publicidad.

Al ser proyectos modestos, los ingresos por publicidad pueden ser suficientes para mantener una página web. Si sólo hay que darle de comer a uno o dos, y la página tiene muchas visitas, con tener adsense (la publicidad de Google) o contratada directamente, uno puede generar unos ingresos muy interesantes.

Luego es divertido. Uno crea una página de información sobre relojes antiguos. Y la llena de publicidad. Y vive de la publicidad. Pero internamente, piensa que él es un empresario de relojes antiguos. Y va a los congresos de relojeros y se empapa de la información que encuentra. Pero la realidad es que no es más que un empresario que vive de la publicidad. Y que los relojes son lo de menos. Debería saber más sobre publicidad, que es lo que le va a dar de comer.

Pues bien, como la economía no hacía más que subir, los gastos en publicidad no dejaban de crecer. Y el que tenía publicidad aunaba el aumento en número de visitantes con los mayores ingresos por publicidad. Y como Internet se supone que estará en perpetuo crecimiento, pues uno puede imaginar que eso sería así para siempre. No para siempre, en el futuro sería mejor aún.

¿Pero qué pasó? Pues que la economía se comenzó a resquebrajar. Y con ella, el mundo de la publicidad. Los ingresos cayeron en picado. Cuando digo en picado digo que el que ganaba antes 1.000 euros, ahora estaba ganando 500 o 350 euros. Las gráficas que acaban en el año 2050 con ingresos de 5.000 euros ya no sirven para nada. En cuestión de pocos meses había ocurrido lo imposible: no sólo no se subía sino que se bajaba. Y a velocidad de vértigo. Y sin frenos.

Y claro, llegó el tío Paco con las rebajas. La empresa que vivía de publicidad y que tenía cuatro empleados, dos de ellos “emprendedores”, se veía obligada a despedir a los otros dos. Y con el tiempo, desaparecían los ingresos. Y con ellos, la empresa.

Aunque gracias a la falsa economía de Internet, uno puede pasarse unos cuantos años con pérdidas, o sin ingresos, y decir que está en fase beta o que es una startup. Y hay quienes se atreven a decir que el Gobierno debería incentivar a estos emprendedores con ayudas y exenciones de impuestos. Para perpetuar la tontería.

En la web 2.0 se ha dado el extraño caso de que un proyecto estuviera en pérdidas (bestiales) se levantara hasta ganar dinero y luego volviera a perder mucho dinero. Cuando esto ocurre en la economía del ladrillo, lo primero que uno piensa es que lo irreal es el momento en que se ganó dinero. Que es un negocio cíclico y que tiene sus momentos de auge y de enorme caída. Pero no. Eso es para economías de pacotilla, para la tecnología esto no se cumple. Nos afectan y perjudican las crisis de los demás, pero son negocios siempre saneados. Y si un negocio sólo funciona en tiempos de gran crecimiento ya no es cíclico, ya es que ni es negocio ni es nada.

Pero no creo que sea siempre así. Aunque claro, en Internet todos somos arrieros y tenemos que hablar bien los unos de los otros. Pero si no se critican los negocios (cutres, inexistentes) de Internet, ¿Dónde se hará? Porque en la calle Internet no le interesa a nadie. Y pocos lo usan. Eso sí, si por error hago click en una página de una red de blogs (orientada a buscadores de forma descarada) resulta que paso a ser un usuario o “visitante único”. Y resulta que la mayoría de la gente que lee blogs no sabe que los lee. Es como si al sintonizar una emisora de radio, por el método antiguo del dial, si pasaras por encima de otra emisora contara como audiencia.

Cuando una de estas empresas ha quebrado o desaparecido, la culpa nunca fue del emprendedor. Normalmente fue el entorno el que no supo adaptarse a la empresa. Muchas empresas están cerrando porque los ingresos de publicidad ya no dan para casi nada. Me sorprende no leer en los “nuevos” medios de comunicación sobre esta debacle. Se leen opiniones aisladas, de casos concretos. Pero en los comentarios uno se da cuenta de que es algo generalizado. Que están cayendo las fichas como en un dominó, una tras otra.

No se quiere sembrar el miedo. La verdad se expone en tanto en cuanto sea agradable a nuestros oídos.

Otro de los motivos por los que están cerrando algunas de estas empresas es su falta de clientes. Algunas ofrecían servicios a empresas y estas, a la hora de recortar gastos, han empezado prescindiendo de estos servicios. A veces, dejando sin pagar algunas facturas.

Y este es un defecto más de la web 2.0. Muy colaborativa y social, pero absolutamente prescindible. En la economía de las tecnologías de la información “real” suele ocurrir lo contrario. Contratas algo con un proveedor (subcontratista) y cuando pasa un tiempo te das cuenta de que te tiene pillado (por los huevos). Que te ha creado un producto que funciona medianamente bien pero para el que dependes en exclusiva de ellos. Si te faltaran alguna vez, no podrías llevar a cabo una de las funcionalidades básicas de la empresa. Si una empresa te gestiona un sistema de nóminas online, y el sistema falla, tienes que recurrir a ellos. No puedes decir “adios, hasta siempre”, pues si aquello se rompe, hay que arreglarlo. Es algo imprescindible.

Con la web 2.0 no. Nada es imprescindible. Es más, casi todo es prescindible, porque suelen ser chorradas. Y lo mejor de todo es que si te crean algo de una empresa “2.0” y tienes necesidad de ello, con un poco que investigues te das cuenta de que está basado en software gratis (software privativo pirateado o software libre entendido como gratis). Con lo que le puedes dar la patada a esa empresa, copiar la funcionalidad que te habían creado, con gente de tu propia plantilla, y olvidarte de ellos para siempre.

Esta es la verdadera crisis de la web 2.0. Que muchos de sus productos son de bajísimo nivel añadido. Una hoja de estilos bonita. Un “experto en usabilidad” (normalmente es alguien con sentido común y conocimiento nulo de tecnología). Enlaces de tus amigos. Plugins renombrados y textos traducidos. Puedes subir videos con un script copiado de internet.

Los proyectos web 2.0 suelen ser batiburrillos (mashup) de códigos y funcionalidades creadas por otros. No se ha creado nada. No se ha inventado nada. No es tecnología. No es distinto de la economía del ladrillo: uno vende grifos, otro cemento, otro pone azulejos y luego rezar por vender el proyecto conjunto, la suma del trabajo de todos los demás, a otros. No hay valor añadido, ni algo que tenga un valor en sí mismo.

Una prueba de ello es ver como esos emprendedores luego no encuentran trabajo fácilmente. Si vivimos en la economía del conocimiento, ¿Por qué cuando cierras tu empresa tu conocimiento no sirve para casi nada? Pues porque tal vez no era de verdad. El que fabrica grifos los sabe fabricar aquí y en Pekín. El que sabe colocar alerones, más de lo mismo. O un profesor de matemáticas, podría trabajar de eso en cualquier país del mundo. Está todo dentro de su cabeza.

Un ex-emprendedor es alguien que sabe que para insertar videos hay un script por ahí. Y que hay que estar en Twitter y en Facebook. Y cosas por el estilo, ideas vacuas que se aprenden (si es que merece la pena aprenderlas) en dos lecturas a uno de esos blogs de gurús.

¿Pero a que viene todo esto? Pues muy sencillo. A que con la crisis subprime, la madre del cordero, se empezó a cuestionar la validez de las opiniones de las agencias de calificación, de los expertos en economía, de las inversiones de las grandes compañías. Porque muchos eran juez y parte.

Y a pesar de los pesares, los críticos con su forma de trabajar se quedaron en la calle, desempleados. Y de los otros, la mayoría ha aguantado el tirón y sigue aferrado al sillón. Sus errores no han pagado. Ni pagarán.

En la economía 2.0 muchos se embarcaron en proyectos suicidas por culpa de los gurús de las nuevas tecnologías, en muchos casos verdaderos charlatanes obsesionados con agradar a los oídos de los demás. Con criticar a la vieja economía. Con dar pésimos ejemplos de éxito. Ejemplos que ahora figuran en la lista de empresas en suspensión de pagos.

Todos estos embaucadores campean a sus anchas. Ellos salen indemnes de la crisis, igual que salieron libres de culpa en la crisis puntocom. Ellos defienden a capa y espada el espíritu emprendedor, pero no se atreven a iniciar nada por sí mismos. No se juegan ni un céntimo (bueno, algunos céntimos sí) de su propio dinero en estos proyectos que revolucionarán el mundo.

Habrá otra crisis y ellos seguirán allí, seguirán siendo los expertos en tecnología. Y los que avisaron de que esto no iba a ninguna parte seguirán fuera del círculo. Aquí o alimentas al monstruo, hasta que muera, o no tienes derecho a opinar.

Lo siento por vosotros os engañaron. La culpa no es de crisis de crédito, ni de los clientes que no os pagan. Es de aquellos que os vendieron un éxito y una realidad inexistente.

Electronical devices

Una explicación sencilla y clara, por alguien que sabe de lo que habla, de por qué no se puede tener encendido un Ipod o cualquier otro aparato electrónico en el despegue y aterrizaje de una avión.

Responde Captain Steve, piloto de una aerolínea americana. Hay que entender que las restricciones de seguridad en vuelo las crean los americanos y las suelen, para nuestra suerte o desgracia, copiar el resto de países.

Pregunta:

De verdad, ¿Cómo es posible que tener encendido mi iPod pueda afectar al despegue de los aviones? Es muy molesto cuando ellos piden que los apaguemos; Lo he dejado encendido (secretamente, por supuesto) y el vuelo nunca ha tenido ningún problema en el despegue.

Respuesta:

Estas reglas siguen el criterio del mínimo común denominador. La Federal Aviation Administration no puede probar [el impacto que causa en los sistemas de despegue de] cada aparato tecnológico por separado, así que cortan por lo sano, el método más seguro posible: no permitir ninguno.

Fuente: Freakonomics.

Jornada continua

En España, sobre todo en las grandes ciudades, es muy frecuente cambiar el horario de trabajo durante el verano. Se trabaja en jornada continua, se entra a las siete o las ocho y se trabaja hasta las dos o las tres.

Esto es una reminiscencia de los tiempos en que no existía el aire acondicionado y era casi imposible trabajar a determinadas temperaturas y horas. Hoy en día es innecesario, pero gracias a Dios se conserva la costumbre.

Uno se pasa todo el año haciendo más horas que un reloj y cuando llega el mes de mayo se empiezan a plantear cuentos de la lechera sobre los dulces meses de verano, en que uno dispondrá de toda la tarde “para hacer lo que te de la gana”.

Es común tener planes grandilocuentes. Porque siempre nos falta tiempo para todo, y por fin existe la posibilidad de disponer de ese tiempo. Ha llegado la hora de cambiar el mundo.

Sin embargo la triste realidad es que casi todos acabamos consumiendo ese tiempo extra de que disponemos en tareas tan productivas como:

  • Dormir la siesta
  • Ver el Tour de Francia, las Olimpiadas o el Mundial de fútbol
  • Engancharte a una telenovela de la televisión
  • Jugar videojuegos

Y no es que me parezca mal o no sea uno de los que las practiquen. Lo que me llama la atención es que cuando pensamos en nuestros planes para el verano, cuando añoramos la jornada continua, nunca pensamos que dedicaremos ese tiempo extra a tareas tan gratificantes. Pensamos por supuesto que algún día nos pegaremos una siesta como Dios manda. O nos veremos un partido de fútbol, o mataremos algunos zombies, o iremos a la playa o la piscina.

Pero es que no es “algún día”, es que es raro el día que no se acaba cayendo en esa dinámica. Queremos tiempo libre para tener más ocio. Los sueños de aprender a tocar la guitarra, ir al gimnasio o escribir un libro no se suelen ni siquiera empezar, se olvidan después de la primera siesta.

Natacion en triatlon

Mucha gente se pasa los fines de semana subidos en la bicicleta. Correr lo hacemos desde pequeños, unos más que otros. Pero nadar, es más difícil.

Aunque el triatlón es de por sí un deporte muy duro, la prueba que mayor desafío supone a los deportistas aficionados es la de natación.

En un triatlón “Ironman” en que se combinan una potente prueba de natación, una etapa de ciclismo y una maratón, se recorren unos 3,8 kilómetros a nado. El vencedor de la prueba necesita en torno a una hora para completar la natación, primera de las tres disciplinas deportivas.

Mucha gente se ve capaz de correr una maratón o realizar una etapa ciclista. O incluso ambas. Pero la prueba de natación exige un esfuerzo extra, pues es una distancia que pocas personas han nadado en toda su vida.

Cuando un piensa en deportistas que se platean una prueba de triatlón, se imagina a superhombres. Y aunque muchos lo son, pues terminar el circuito de un iroman lleva más de ocho horas, también, como en todo deporte, hay amateurs y aficionados. Sobre todo en los triatlones de dimensiones más modestas, como el Ironkid en que sólo se nada medio kilómetro, se hacen 15 kilómetros en bicicleta y 5 de carrera.

Como en todo deporte extremo, mucha gente muere en el intento. Los infartos no son raros, incluso entre deportistas experimentados. Curiosamente la fase de la carrera más peligrosa es la primera: la natación. El 80% de las muertes se produce en el agua. Y en contra de lo que pudiera pensarse, la mayoría no son por problemas de corazón, sino simples ahogamientos.

Según un estudio, de todos los participantes en carreras de triatlón en Estados Unidos entre enero de 2006 y septiembre de 2008, casi un millón de personas tomaron parte en las 2.846 pruebas celebradas. Hubo 14 muertes, 11 hombres y 3 mujeres. De las 14 muertes, 13 ocurrieron en la prueba de natación (la 14º muerte es la de un ciclista al caer desde su bicicleta), y la mayoría de ellas por ahogamiento. La media de edad de los fallecidos fue de 43 años.

La probabilidad de morir en un triatlón es casi el doble que la de una maratón. En los últimos cuatro años, han muerto 25 personas en triatlones en Estados Unidos.

A veinte minutos del infierno

20minutos-xanadu

Los que no sepáis mucho de coches como yo, Sandero es el Dacia Sandero, es el coche más barato del mercado después de los Tata indios. Valorado en unos 5.250€

20minutos-xanadu2

Estará a 20 minutos de Xanadú, pero según Google Maps, está a 40 minutos. Supongo que uno cuenta el tráfico de un domingo 25 de diciembre y el otro el de un miércoles santo en hora punta.

20minutos-xanadu3

Imaginad si el piso está a tomar por saco de Madrid capital (no Xanadú que no es nada), que hasta en un mapa de Europa, se ve que está lejos.

20minutos-xanadu4

Todo Gratis

Un muy interesante artículo que quizás haya escapado a vuestra lectura.
Chris Anderson, editor jefe de la revista Wired, escribió el artículo/libro “The Long Tail” (La Larga Cola) que obtuvo mucha repercusión y difusión. Gracias a él, se ganó el estatus de visionario.

Ahora ha publicado un nuevo libro, Free, sobre el contenido en Internet y su distribución gratuita. El libro estará en las librerías en breve y será de nuevo idolatrado por todo el mundo.

Malcolm Gladwell ha hecho una reseña bastante negativa de la argumentación del libro, y como normalmente los no defensores del todo gratis suelen ser personas poco preparadas, su opinión tiene considerable interés.

“Free” se puede leer gratuitamente online, pero claro, sólo si estás en los Estados Unidos. Porque aunque uno sea un defensor del “todo gratis”, está dispuesto a aceptar las limitaciones impuestas por la editorial a la hora de distribuir copias gratuitas.

El comienzo del artículo de Gladwell es interesante. Habla de las negociaciones entre el responsable de The Dallas Morning News (un periódico americano con medio millón de suscriptores (más que la tirada media de El País)). En dichas negociaciones, Amazon se sentó sobre la mesa diciendo que, si el periódico se distribuía mediante el Kindle (el lector de libros y contenidos digital creado por Amazon), ellos pensaban cobrar el 70% del dinero y dejar sólo el 30% al propio periódico.

Tratándose de un periódico grande, qué no habrán exigido desde Amazon a los más pequeños.

También Gladwell zarandea al clásico ejemplo de “éxito de lo gratis”, Youtube, que el mismo Anderson utiliza como paradigma de su prédica. La crítica es feroz y pragmática:

Youtube perderá cerca de 500 millones de dólares este año. Si fueran un banco, podrían acceder al programa de rescate de bancos del Gobierno(TARP, sólo accesible para bancos con grandes problemas financieros).

Otro de los defensores del todo gratis, Seth Goldin, critica la crítica de Malcolm Gladwell. Lo mejor de todo es que en su crítica no menciona ni uno sólo de los argumentos de Gladwell. Porque son irrefutables. Porque Gladwell es Dios.

Takemitsu y la cara B

En 1959, Igor Stravinsky se hallaba de viaje por Japón, dando conciertos y asistiendo a todo tipo de entrevistas y actos oficiales. Stravinsky es a la música clásica del siglo XX el equivalente a los Beatles respecto del pop: el mayor referente y la autoridad más respetada.

Entrevistaron a Stravinsky en la radio japonesa NHK, donde el compositor sugirió que le gustaría oír algo de música clásica japonesa contemporánea. Era algo que esperaban pero que no estaba totalmente programado. Los responsables de la radio tenían una selección de piezas de autores japoneses. Por error alguien eligió una cinta con el Requiem de Toru Takemitsu.

Cuando se dieron cuenta del error, se dispusieron a cambiar la cinta, pero Stravinksy les dijo que dejaran la música hasta el final.

Más tarde, en una rueda de prensa, le preguntaron al compositor ruso si consideraba que alguna de las piezas de música japonesa que había escuchado era de calidad. Stravinksy elogio ampliamente la composición de Takemitsu, sin mencionar a ninguna de las demás.

Al día siguiente, Stravinksy invitó a comer a Takemitsu y de nuevo reiteró sus alabanzas.

Aunque había recibido algunos premios de composición, tanto en su país como en Europa, Takemitsu no era uno de los compositores más valorados en su país y prueba de ello es que no pretendían programar ninguna de sus obras en la muestra que dieron ante Stravinsky.

Merced a este afortunado error, el compositor japonés alcanzaría una fama y reconocimiento extraordinarios. Hoy en día es considerado el compositor más importante de toda la historia de Japón (y uno de los más importantes de finales del siglo XX) y suyas son bandas sonoras tan conocidas como la de Suna no onna (de 1964, Woman in the Dunes en inglés) o Ran de Kurosawa (1985).

Fuentes:
Artículo de la Wikipedia sobre Takemitsu.
The Music of Toru Takemitsu, libro de Peter Burt.