Archivo de la categoría: ciencia

El IoT, mucho más de lo que hoy imaginamos

En mi empresa (Sngular) arrancamos el año con el lanzamiento de una nueva competencia: El Internet de las cosas (Internet of Things o IoT para los amigos). Pensamos que tenemos ya en la empresa todas las capacidades necesarias para combinar en hardware, software, cloud computing, data analytics, cognitive computing, machine learning… de forma que podamos ofrecer soluciones innovadoras en IoT y en especial al sector industrial, que ahora se enfrenta a la llamada cuarta revolución o Industria 4.0 y en el que ya hemos hecho una decena de proyectos muy interesantes.

fondo-fb-07

Pero hoy no vengo a hablar de Sngular, quiero aprovechar para hablar un poquito de qué debemos entender o esperar de esto del IoT porque se tiende a banalizar lo que, a mi juicio, es el inicio de toda una nueva gran revolución en todos los sectores. 

En la mayoría de los casos, cuando se piensa en ‘Internet’, se piensa automáticamente en ‘la web’, pero eso es como si cuando a uno le preguntases qué es la electricidad pensase únicamente en una bombilla que da luz y no viera que la bombilla es sólo uno de los muchos usos de la electricidad.

Como todos sabemos, con la electricidad, además de poder generar luz (con una bombilla o un led), también podemos generar calor (con una resistencia) o movimiento (con un motor eléctrico que puede mover un ventilador, un coche, una grúa o un ascensor).

De igual manera, Internet es la infraestructura, los protocolos y estándares que nos dan la capacidad de intercambiar información digital a nivel mundial. Encima de esta capacidad de comunicación, se desarrollaron multitud de servicios (para transferir ficheros, para mandar correos electrónicos, o para navegar por la web de contenidos que últimamente se han convertido en aplicaciones vistosas donde el formato ha triunfado sobre el contenido).

Por ello, dado que pensamos en web al hablar de Internet, nos hemos vuelto a inventar otra palabra, el “cloud” o la nube, para cuando Internet no tiene interfaz para los humanos, para cuando sólo nos queremos referir a la capacidad de almacenar todo en la red, proporcionando acceso universal desde cualquier dispositivo, y añadiendo además a la propia red ordenadores servidores para el procesamiento de dicha información de manera mucho más potente y eficiente que procesando la información con los ordenadores de las empresas o usuarios de la red.

Ya hemos hablado de lo que se nos viene a la cabeza por Internet pero, ¿qué pensamos sobre “las cosas”? Normalmente pensamos en los aparatos y máquinas más domésticos que tenemos a nuestro alcance y que manejamos directamente (el frigorífico, el coche, el móvil, la lavadora, o las luces y persianas de nuestra casa). 

Por eso, cuando se habla de Internet de las cosas, la noticia del telediario solía ser hasta hace poco la de una pantalla táctil para navegar por Internet desde la puerta del frigorífico (que coincidiréis conmigo en que es el lugar en el que más cómodamente uno puede consultar las redes sociales o las recetas de cocina o hacer la compra de los huevos que vemos que faltan en el frigorífico). También nos imaginamos un Internet de las cosas que se limite a ampliar las funciones de nuestra pantalla del coche para reproducir mis canciones favoritas desde Spotify. Y no digamos la maravilla que supone que con el móvil podamos decirle de camino a casa que el horno se encienda para que el pollo esté a punto cuando lleguemos al hogar. Se da por hecho que la preparación previa del pollo es lo de menos.

Fotolia_129408175_Subscription_Monthly_M.jpg

Sin duda, esa capacidad de conectar nuestras cosas, nuestros cacharros, para que sea más fácil manipularlos, parece revolucionaria y cómoda, pero os aseguro que ese no es el IoT que lo va a revolucionar todo; tendemos a simplificar, pensando que esto de las cosas inteligentes sólo se aplica a lo que nosotros usamos, cuando la mayoría de las cosas que se van a ir haciendo inteligentes van a empezar a “hablar” entre ellas, sin que nosotros nos enteremos ni intervengamos de ninguna manera: un semáforo con un coche, un coche con otro coche, un candado o una alarma con una cámara que reconozca una cara, un sensor de humedad y un GPS con un tractor que se conduzca sólo, un contenedor de basura con un camión de basura…

Es ese “Internet silencioso”, el que no tiene interfaz gráfico para los humanos, el cloud que se limita a conectar todo, a almacenar la información de todo… y la conexión al cloud de trillones de dispositivos, sensores, máquinas, microprocesadores o pequeñas inteligencias repartidas por todas las máquinas cada vez más autónomas, máquinas que no son ya manejados por personas, máquinas que hablan con máquinas (M2M o Machine to Machine); ese Internet, decíamos, es realmente el que va a revolucionar la industria en la llamada cuarta revolución industrial o Industria 4.0.

Para simplificar, la primera revolución industrial fue la facilitada por la máquina de vapor, la segunda por la electricidad, la tercera por la electrónica e informática, y la cuarta es la que facilita internet por la que se mezclan máquinas físicas y lógicas, las máquinas hablan con las máquinas (M2M), y empezamos a hablar de cyberObjetos (objetos inteligentes y conectados), o de Internet for Everything o Internet de las Cosas (IoT) que son únicamente nombres marketinianos de los que nos vamos aburriendo sucesivamente.

revolucion4

Os pongo algunos ejemplos sencillos que ya son posibles con la tecnología actual y que irán inundando nuestras vidas, nuestros objetos, nuestros edificios, nuestras fábricas, nuestros hospitales, nuestras escuelas, nuestras ciudades de manera progresiva e imparable.

El cerebro de un ascensor

Fotolia_133560336_Subscription_Monthly_M.jpg

El cerebro del ascensor sabrá en qué estado de desgaste están todas las piezas del sistema, según su uso; enviará informes detallados a su central; anticipará fallos en sus sistemas solicitando sustitución de piezas o revisiones técnicas específicas mientras sube y baja por los pisos de un rascacielos a petición de las personas que pulsan los botones, abriendo y cerrando sus puertas automáticamente; aprenderá a ser más eficiente para usar la energía, para tardar menos tiempo, pero también hablará con el resto de ascensores del edificio, y con las escaleras mecánicas, y se “entretendrán” en observar  cuánta gente entra, o sale, en cada planta, en cada momento, y observarán a sus pasajeros y calcularán con mucha precisión de qué peso, de qué altura, de qué género, de qué edad, de qué costumbres son; podrán saber y podrán predecir cuánta gente hay o habrá en cada planta en cada horario, según el día de la semana, cómo se ven afectados estos patrones si se toman decisiones en el edificio. Si este edificio es un centro comercial, podrá servir para optimizar las ventas. Si este edificio es de oficinas, probablemente también tendrá contadores de personas en salas de reuniones, optimizará cómo se gasta energía en climatizar, en limpiar las oficinas, en aprovechar mejor las instalaciones según la cantidad de personas que lo utilizan en cada momento. Lo lógico es que estos edificios nos empiecen a hacer recomendaciones y nos propongan escenarios que podamos simular y que permitan optimizar los horarios, o la distribución de la actividad, o mejorar los costes de mantenimiento o la eficiencia energética.

Nuestro coche.

Fotolia_133968408_Subscription_Monthly_M.jpg

Nuestro coche, con un corazón cada vez más electrónico, no sólo nos mostrará la pantalla multimedia de última generación, monitorizará el estado de todos sus componentes, anticipará averías, guiará al técnico en la reparación o revisión y seguirá siendo cada vez más eficiente y barato de mantener, sino que  también tendrá información, muy codiciada por nuestro seguro o por muchas empresas, acerca de cómo usamos el coche, qué estilo de conducción tenemos, por dónde nos movemos, cuál es la ruta idónea, qué está haciendo el coche de 5 coches delante nuestro en un atasco o, al cruzarnos con otros coches, se intercambiarán con detalle el estado del firme que nos vamos a encontrar en los próximos kilómetros y que acaban de ser escaneados por el coche que venía en sentido contrario. En muy poco tiempo, el coche podrá llevarnos a cualquier sitio de manera autónoma porque, sin duda, será mucho más seguro que conduzca la máquina, que tendrá mucha más información, muchos más reflejos y mucho más control de la conducción. Los semáforos luminosos para humanos serán completamente prescindibles. Se evitarán mucho mejor los atascos. Desaparecerá el problema de “aparcar”.

Los coches llevarán a nuestros hijos al colegio y luego se volverán a casa a esperarnos o nos irán a recoger al trabajo pasando previamente para que les carguen la compra. La ciudad cambiará dinámicamente sus reglas para que la circulación sea ágil, para que los parkings se utilicen de manera eficiente, para que la contaminación disminuya, aprenderá de lo que le digan los coches y los coches se adaptarán a lo que les digan los elementos de la ciudad. Cuando lleguemos con nuestro coche eléctrico, conectado, a la plaza de aparcamiento de la oficina, el coche negociará con el enchufe y decidirá si le interesa comprar electricidad o venderla a la ciudad si no la vamos a necesitar antes de volver a casa y producimos en casa más barato que el precio al que se compra en el barrio industrial, y en ese mismo momento se producirá la microtransacción económica que corresponda que, aunque sea de unos pocos céntimos, se hará de manera automática, porque las transacciones económicas tendrán un coste de transacción marginal y despreciable. Al dejar el coche en casa por la noche, el coche nos preguntará si nos parece buena idea que se vaya el solo a las 4 de la mañana a pasar la ITV del futuro porque ha visto en nuestra agenda que no queremos hacer nada a esa hora y que es la mejor hora para gastar menos energía en ir a la ITV.

Industria 4.0

Fotolia_133932293_Subscription_Monthly_M.jpg

En nuestra fábrica 4.0 todas las magnitudes, de cada pieza, de cada máquina, de cada consumible, estarán monitorizadas en tiempo real. Se guardarán todos los datos para ver las curvas de evolución de desgaste, para hacer un análisis predictivo de cuándo hay que hacer un cambio de aceite, cuándo hay que cambiar una pieza, cuándo hay que parar un máquina para mejorar el consumo eléctrico, aumentar la producción, reducir los escasos stocks necesarios de consumibles (porque tendremos la capacidad de predecir su consumo) o los escasos stocks de productos generados (porque fabricaremos bajo demanda en tiempo real e incluso prediciendo la demanda).

Salud

Fotolia_128123168_Subscription_Monthly_M.jpg

En nuestra salud, la revolución ya la vamos intuyendo… las cosas a “iotizar” son sensores y actuadores cada vez más diminutos capaces de monitorizar y compensar todo tipo de constantes vitales, concentración de sustancias en sangre o en el sudor, o en el estómago o de predecir cuándo se desequilibran los sistemas de nuestro cuerpo. Recordemos que la salud no consiste en otra cosa sino en el mantener el equilibrio de muchas variables en sus rangos adecuados, en los que la vida se desarrolla y en los que nuestros órganos están diseñados para autocompensarse; y que las máquinas y sistemas autónomos perseguirán contínuamente el restablecimiento de los equilibrios de todas esas variables ante variaciones producidas por enfermedades o accidentes. De esta forma, al igual que hoy el piloto automático de un avión compensa un sistema de guiado dinámico midiendo y controlando multitud de variables mientras va acercando el avión a la pista de aterrizaje, tendremos sistemas de monitorización vital que, en piloto automático, persigan restablecer los equilibrios para, de esa forma, proteger, alargar y mejorar nuestra vida.

No quiero extenderme con ejemplos en todos los sectores, de la gran industria, de las infraestructuras de producción y distribución de energía, de la agricultura, la logística, el comercio de distribución… No se trata de ser exhaustivos en imaginar todo lo que va a cambiar en cada sector porque simplemente el IoT lo va a cambiar absolutamente todo en una o dos décadas.

Tampoco quiero incluir aquí todas esas fotos e infografías futuristas e impactantes sobre de las cosas conectadas en la fábrica o en el hogar, porque simplemente cualquier ejemplo nos limita nuestra imaginación para pensar y redefinir lo que nos espera.

Al que le parezca que todas estas cosas nunca llegan, sólo tiene que mirar hacia atrás: sin duda nos fiaremos completamente de un coche que se conduzca solo al igual que hoy no entendemos que para subir al décimo piso tengamos que necesitar un ascensorista de uniforme para manejar el ascensor, nos dejaremos operar por una máquina programada para nuestra apendicitis, igual que hoy preferimos que las dioptrías del ojo las corrija automáticamente un láser y no un cirujano con muy buen pulso.

Estamos al principio de una gran revolución, de los objetos fabricados de manera personalizada, en el momento y lugar que sean necesarios, de objetos inteligentes que cuenten con toda la información del entorno necesaria para autorepararse, para adaptarse aprendiendo y mejorando de manera automática en función del uso que les demos.

Todos los objetos físicos podrán estar conectados con el resto de objetos del mundo y con centros de procesamiento inteligente que tendrán acceso a toda la información necesaria y de esta forma todos los objetos podrán ser extendidos con una identidad digital que los complemente y mejore. 

La conexión a Internet, a esa gran red donde encontrar toda la información y toda la capacidad de proceso que sea necesaria, hará que cualquier pequeño objeto, ya sea un sensor de humedad, una cerradura o un candado de bicicleta, una mochila, una señal de tráfico, un oso de peluche, un llavero, un bolígrafo… empiecen a parecer cada vez más inteligentes gracias a la versión digital que acompañará a todo objeto.

Utilizaremos la voz, o nuestro móvil, para preguntar a una mesa sobre sus características, sobre su fabricante, sobre su coste y el objeto (vía aplicación móvil o como sea, nos responderá con atributos, características…). En una tienda de muebles, le preguntaremos a un sofá (ya veremos si le preguntamos desde el móvil o desde las lentillas que sobreimpresionen información sobre lo que vemos) que si nos cabe en el rincón de nuestro salón o a un coche que nos guste y que esté aparcado en la calle que cuánto nos costaría su compra y mantenimiento anual para nuestro estilo de vida y conducción. Podremos comprar cualquier objeto que veamos, la ropa que llevan puesta los demás, un cuadro que nos guste de la recepción de un hotel, cualquier imagen de una revista o anuncio de televisión…gracias al reconocimiento de imagen y la conexión con el comercio electrónico del futuro. Nuestros hijos verán muy poco útiles esos objetos físicos que no tengan esa conexión o identidad digital que los complemente: será parecido a la sensación que hoy tienen nuestros pequeños cuando cogen una revista e intentan hacer zoom sobre una foto utilizando los dos dedos como hacen con cualquier imagen que ven en una tableta.

Hoy ya la impresora de casa se compra por internet sus propios cartuchos de tinta cuando se empieza a agotar si así lo hemos autorizado previamente. Pronto tendremos que revisar el presupuesto que damos a cada objeto para su automantenimiento pero también los objetos tomarán decisiones según el contexto para hacernos ahorrar o incluso hacernos ganar dinero (por ejemplo, si la regulación finalmente nos deja producir electricidad a partir del sol que cae en nuestro tejado, nos permite transportarla en la batería de nuestro coche, y venderla a la ciudad aprovechando el estacionamiento del coche mientras damos un paseo de compras por el centro).

Sólo espero que toda esa liberación de tareas y ese tiempo libre que tengamos gracias a los miles de objetos que nos rodeen dispuestos a ayudarnos o hacernos la vida más fácil nos deje algunos placeres sencillos e insustituibles que no requieran ser automatizados: espero que no mandemos un par de drones para que salgan de paseo con nuestros hijos y con nuestro perro con la misión de cuidar de la seguridad de los primeros y de lanzar el palo o recoger las cositas del segundo (alguien estará ya también pensando en esta aplicación del Internet de las cosas… marrones).

Es previsible también que aparezcan aplicaciones absurdas y noveleras para algunos pero que parezcan vitales y transformadoras para otros (como ese pañal que cuando siente la humedad envía un ‘wasap’ al padre o la madre, que supongo que podrá saltar del sofá de un brinco para cambiar el pañal al niño antes incluso de que el niño se encuentre incómodo y empiece a llorar, sin duda una disrupción para el hogar).

Lo que está claro es que todo está por hacer, por reinventar; que estamos ante una nueva era en la que podemos hacernos la vida más cómoda, más eficiente y económica, más saludable, más respetuosa con todos los demás y con el medio ambiente.

El momento que vivimos es especialmente emocionante porque dependemos cada vez menos de la disponibilidad de la tecnología necesaria, que ya está aquí, y más de la imaginación y del conocimiento profundo del ser humano que nos permita entender las necesidades que realmente queremos satisfacer.

My personal journey from IT to BIO from an investor point of view

Transcribo, más o menos, lo que fue mi ponencia en BioSpain2014 (Congreso internacional celebrado en Santiago de Compostela del 24 al 26 de Septiembre) donde fui invitado por Asebio para participar en una mesa redonda sobre “Financing Convergent Technologies”.

BioSpain 2014. September 26, 2014. 

My IT Career

23 years ago, I finished my studies in Telecommunication Engineers School at Polytechnic University of Madrid. In Spain this degree covers a mix of computer sciences, electronic and theory of information applied to communication problems.

Despite of studying two communication specialties; I’ve worked most of my career in software development. I became an entrepreneur and an employer, I studied an MBA… and right now, I own and run MediaNet Software, a company with more than 200 software engineers across three countries developing software for very large customers in the banking, telecommunication, energy, insurance, internet industry… MediaNet Software, will be soon a 20-year-old organization, and also the heart and beginning of some other spin-offs that sum up to other 100 specialized professionals in the IT field.

Captura de pantalla 2014-10-21 a la(s) 11.20.40

Internet Investor

For the last 10 years, I founded, promoted and supported some other initiatives with a variety of Internet business models such as:Mercadeuda, matching offers and demand of commercial debt between companies; Ready4ventures, a platform to facilitate connections between investors and entrepreneurs; Centralia, a common market place for procurement and admin services for neighborhoods’ communities; Belbex, a B2B Real State networking platform.

Another company I cofounded was BuyVIP, an ecommerce platform with a particular business model, that today is known as “private sales”. This company grew in 5 years (2006 to 2010) from 0 to 100 M€ of revenue per year, operating in 7 countries and with more than 5 millions registered users and buyers. In November 2010, we sold BuyVIP to the world’s ecommerce leader Amazon.com

Captura de pantalla 2014-10-21 a la(s) 11.21.40 Captura de pantalla 2014-10-21 a la(s) 11.22.14

Back to the University 20 years after

4 years ago, with a very solid background and experience as engineer, employer, entrepreneur and  investor, I decided to become a student again. I got back to academic mode to try finding new fields of knowledge to develop by joining a 2-year Master degree in Biomedical Engineering at my first University.

Captura de pantalla 2014-10-21 a la(s) 11.16.57Captura de pantalla 2014-10-21 a la(s) 11.23.31

The Master was a mix of several disciplines. Some of then like Molecular Biology, Anatomy, or Physiopathology… were very strange to me as well as fascinating. Others like Medical Informatics, or Artificial Intelligence seemed more familiar to me.

Some of the subjects were held at Biology School, other (like biomechanics) at Industrial Schools, other like “new materials” at Civil Engineering School (known as Caminos, Canales y Puertos in Spain), other at Computer Science School….

Other subjects, such as Medical Imaging, Electromagnetic Fields effects, Biofotonic, Assistive Technologies, Biomechanics… were hold at the Telecommunication School where I studied 20 years before. In fact, some of the teachers were the same professors I had two decades before.

What is even more amazing is that, the same professors, still use almost the same mathematics, before focused on a problem of multiplexing information for communication through a wire, now focusing on a new algorithm design for a Computed Tomography or Magnetic Resonance Medical Imaging Acquisition.

The same machine learning patterns that before were used to control or guide a vehicle across a road, now are used to try to build an artificial pancreas to control the right level of insulin or glucose.

The same software of simulation that before we used to calculate the load or throughput of a electronic system, is now use to simulate virtual cells fighting with a virtual bacteria infection…

Practically the same technology used in the 80s and 90s for semiconductor design, is now the base for biosensors, and the technology designed for ink-printers 30 years before were the starting point for the design of CGH (comparative genomic hibridation) arrays for DNA studies.

The massive sequencing of genes is not possible without new informatics and big data approaches and, in fact, are similar to map-reduce philosophy used some years ago for crawling the web with algorithms like Google Search Engine.

Why we can address now bigger goals with the same technology?

Compare the titles of my Final Project in Telecommunication Studies in 1992: “Using of Neural Networks for guiding robots” with the new Final Master Thesis in 2013: “Using complex network theory for analyzing MEG (magnetoencephalography) signals of hyper sensible patients to the Electromagnetics fields”

The Moore Law we saw in IT for many years, has enabled to use computer science first, for simple problems such as accounting, banking systems, to more complex problem for example with scalability challenged introduced with Internet, and now we are daring with Health and Medical disciplines: from helping us at micro simulation of physics of atoms designing new molecules before testing them with real molecules and chemical reactions, or to understand macro models of how spreads a particular epidemic or how to extract useful information and knowledge for all the medical patient records in, not only in a Hospital Information System, but also in a whole Public Healthy System or even in massive worldwide clinic studies.

And that Moore Law in IT is nothing compared with the speed we saw the last 10 years of the DNA sequencing race (for example) where we can find out a quadratic exponential law.

Captura de pantalla 2014-10-21 a la(s) 11.15.06 Captura de pantalla 2014-10-21 a la(s) 11.15.54

BioEngineers are mixing the electronic with the chemistry and so they are combining both improvements adding the power of Moore Law with other biological exponential laws that finally yield in a double exponential progress.

Is now the right moment for VCs to invest in these new raising bio-ventures?

Nowadays, at the pure Internet sector, where I come from, there is a lot of money in Spain for investing in new projects (about 1 billion euros of Family Offices, VC, and different kinds of Business Angels).

Although there are many Internet ideas of business plans fed by the apparent low entry barriers of internet technologies, by the interest of promoting self employment and also, because the entrepreneur fever encouraged in business schools, etc…  However, there are only a few interesting business project to investi on: not from the viability of the business but from the investor and probability of the return of investment point of view.

In my humble opinion, during these last two years, I’ve been actively seeking more projects in some specific BIO subsectors, where I believe there is a better opportunity for investing.

So, I founded and funded HealthyTech, as a private fund to invest on some earlystage projects related with biomedical tecnologies, bioTIC, bioinformatics, and so. During last 2 years, I’ve invested on 2 projects for a total capital near to half a million euro.

Captura de pantalla 2014-10-21 a la(s) 11.18.26Captura de pantalla 2014-10-21 a la(s) 11.18.55

One of then is MedimSight, offers the power of cloud computing for processing medical imaging diagnoses. I think in next 10 years, having a MRI or CT equipment without the cloud processing offered by a service company like MedimSight, would be equals to having today a computer without an internet connection.

The second one is NIMGenetics, a well consolidated spanish company that’s leading the medical diagnosis with genetic tests. The company has recently closed an increase of capital round of more than 1 million euros in order to address properly its plans for international business development.

Different criteria for evaluating Internet and Bio investment opportunities

Coming from Internet ventures, you have to adapt the metrics and priorities of some parameters for the evaluation of investments.

Captura de pantalla 2014-10-21 a la(s) 11.13.12

For example:

– The timing is different: internet times are faster…in a internet ecommerce project you know if the business model run or not in one only or two years. The same for obtaining the comercial ratios of capturing new customers…

– The entry barriers. Here, you need a knowhow and a team that you have to build up with several years. Meanwhile, at internet ventures, the entry barriers are very low. Practically, everyone come build a business model, powerpoint style, in a long weekend or as a practice exercise finishing your favourite MBA.

– The competitors. Because the low entry requirement for new competitors in the internet, you can discover 3 new competitors with your successful idea and business next week. However, as much as you need to start a business model an this sector, as much as you can take advantage of your specific knowhow compare with the abilities for your new competitor that probably you have been following for some months or years across the scientific congress  or publications of the research group behind the new initiative.

– The IP (Intellectual Property) or Patents are now valuable of have a reduced value at the Internet models where the key factor, the more important driver is critical mass and ability to speedy execute the deployment of strategies for capturing the more market share as possible.

Mixing all this different variables, I believe that the good news for this sectors venture investments is that, if your have a differential knowhow, a team focused on business, a mix of Scientifics and managers that speak the language of money… your investment can reach good multipliers (such as internet biggest projects) but, more important, the probability of multiply your investment by 0 (Zero) is quite small here than in the next fashion social network you can imagine. So, the total return, averaged by all your portfolio, I guess that could be better at Biotech than at the Internet Startups

BioEconomy BigOpportunities?

Studying the last centuries and last years of economic revolutions, we see the best opportunities during periods when, a new technology offers an exponential growth during some decades.

Captura de pantalla 2014-10-21 a la(s) 11.13.58

I believe that, investing in BioTecnology, BioInformatics, BioPharma, BioMedicine, BioEconomy or BioEverything for the coming decades, is like investing in microelectronics in 60s,  in microcomputers in 80s or Internet at the beginning of this century.

I hope so! ;-)

PD: Thanks to my editors :-), @enriquegoizueta and @eliavallejo, for their help preparing this post.

Etiquetado ,

Visto en el #CASEIB12. Nuevas Tecnología

Visto en el #CASEIB12.

Nuevas Tecnologías en la Ingeniería Biomédica: TEMAT: Tissue Engineering Interfaces and Material Sciences; CELLT: Cell Therapies for Repair and Replacement; REMOD: Regulatory Moleculs and Delivery Ssytems; IMONIT: Imaging, Modelling and Monitoring of Regeneration.
Dejemos de llamar Nuevas Tecnologías simplemente al “uso” de ordenadores, Internet o del móvil

Recibido libro Linked http://ow.ly/7WbB3

41Yvq6-fOJL._SX321_BO1,204,203,200_

Recibido libro Linked http://ow.ly/7WbB3 d Albert-László Barabási (Honoris Causa x UPM http://ow.ly/7WbAn) recomenacion de Pedro Zufiria

in bio- projects, studies, pilots – reproducible results and positive results

Taken from : http://online.wsj.com/article/SB10001424052970203764804577059841672541590.html?mod=fbapp_art_onwsj#articleTabs%3Darticle

Scientists’ Elusive Goal: Reproducing StudyResults

Share↓ More

[Reproduce]

By Gautam Naik

Two years ago, a group of Boston researchers published a study describing how they had destroyed cancer tumors by targeting a protein called STK33. Scientists at biotechnology firm Amgen Inc. quickly pounced on the idea and assigned two dozen researchers to try to repeat the experiment with a goal of turning the findings into a drug.

It proved to be a waste of time and money. After six months of intensive lab work, Amgen found it couldn’t replicate the results and scrapped the project.

“I was disappointed but not surprised,” says Glenn Begley, vice president of research at Amgen of Thousand Oaks, Calif. “More often than not, we are unable to reproduce findings” published by researchers in journals.

This is one of medicine’s dirty secrets: Most results, including those that appear in top-flight peer-reviewed journals, can’t be reproduced.

“It’s a very serious and disturbing issue because it obviously misleads people” who implicitly trust findings published in a respected peer-reviewed journal, says Bruce Alberts, editor of Science. On Friday, the U.S. journal is devoting a large chunk of its Dec. 2 issue to the problem of scientific replication.

Reproducibility is the foundation of all modern research, the standard by which scientific claims are evaluated. In the U.S. alone, biomedical research is a $100-billion-year enterprise. So when published medical findings can’t be validated by others, there are major consequences.

Drug manufacturers rely heavily on early-stage academic research and can waste millions of dollars on products if the original results are later shown to be unreliable. Patients may enroll in clinical trials based on conflicting data, and sometimes see no benefits or suffer harmful side effects.

There is also a more insidious and pervasive problem: a preference for positive results.

Unlike pharmaceutical companies, academic researchers rarely conduct experiments in a “blinded” manner. This makes it easier to cherry-pick statistical findings that support a positive result. In the quest for jobs and funding, especially in an era of economic malaise, the growing army of scientists need more successful experiments to their name, not failed ones. An explosion of scientific and academic journals has added to the pressure.

When it comes to results that can’t be replicated, Dr. Alberts says the increasing intricacy of experiments may be largely to blame. “It has to do with the complexity of biology and the fact that methods [used in labs] are getting more sophisticated,” he says.

It is hard to assess whether the reproducibility problem has been getting worse over the years; there are some signs suggesting it could be. For example, the success rate of Phase 2 human trials—where a drug’s efficacy is measured—fell to 18% in 2008-2010 from 28% in 2006-2007, according to a global analysis published in the journal Nature Reviews in May.

“Lack of reproducibility is one element in the decline in Phase 2 success,” says Khusru Asadullah, a Bayer AG research executive.

In September, Bayer published a study describing how it had halted nearly two-thirds of its early drug target projects because in-house experiments failed to match claims made in the literature.

The German pharmaceutical company says that none of the claims it attempted to validate were in papers that had been retracted or were suspected of being flawed. Yet, even the data in the most prestigious journals couldn’t be confirmed, Bayer said.

In 2008, Pfizer Inc. made a high-profile bet, potentially worth more than $725 million, that it could turn a 25-year-old Russian cold medicine into an effective drug for Alzheimer’s disease.

The idea was promising. Published by the journal Lancet, data from researchers at Baylor College of Medicine and elsewhere suggested that the drug, an antihistamine called Dimebon, could improve symptoms in Alzheimer’s patients. Later findings, presented by researchers at the University of California Los Angeles at a Chicago conference, showed that the drug appeared to prevent symptoms from worsening for up to 18 months.

“Statistically, the studies were very robust,” says David Hung, chief executive officer of Medivation Inc., a San Francisco biotech firm that sponsored both studies.

In 2010, Medivation along with Pfizer released data from their own clinical trial for Dimebon, involving nearly 600 patients with mild to moderate Alzheimer’s disease symptoms. The companies said they were unable to reproduce the Lancet results. They also indicated they had found no statistically significant difference between patients on the drug versus the inactive placebo.

Pfizer and Medivation have just completed a one-year study of Dimebon in over 1,000 patients, another effort to see if the drug could be a potential treatment for Alzheimer’s. They expect to announce the results in coming months.

Scientists offer a few theories as to why duplicative results may be so elusive. Two different labs can use slightly different equipment or materials, leading to divergent results. The more variables there are in an experiment, the more likely it is that small, unintended errors will pile up and swing a lab’s conclusions one way or the other. And, of course, data that have been rigged, invented or fraudulently altered won’t stand up to future scrutiny.

According to a report published by the U.K.’s Royal Society, there were 7.1 million researchers working globally across all scientific fields—academic and corporate—in 2007, a 25% increase from five years earlier.

“Among the more obvious yet unquantifiable reasons, there is immense competition among laboratories and a pressure to publish,” wrote Dr. Asadullah and others from Bayer, in their September paper. “There is also a bias toward publishing positive results, as it is easier to get positive results accepted in good journals.”

Science publications are under pressure, too. The number of research journals has jumped 23% between 2001 and 2010, according to Elsevier, which has analyzed the data. Their proliferation has ratcheted up competitive pressure on even elite journals, which can generate buzz by publishing splashy papers, typically containing positive findings, to meet the demands of a 24-hour news cycle.

Dr. Alberts of Science acknowledges that journals increasingly have to strike a balance between publishing studies “with broad appeal,” while making sure they aren’t hyped.

Drugmakers also have a penchant for positive results. A 2008 study published in the journal PLoS Medicine by researchers at the University of California San Francisco looked at data from 33 new drug applications submitted between 2001 and 2002 to the U.S. Food and Drug Administration. The agency requires drug companies to provide all data from clinical trials. However, the authors found that a quarter of the trial data—most of it unfavorable—never got published because the companies never submitted it to journals.

The upshot: doctors who end up prescribing the FDA-approved drugs often don’t get to see the unfavorable data.

“I would say that selectively publishing data is unethical because there are human subjects involved,” says Lisa Bero of UCSF and co-author of the PLoS Medicine study.

In an email statement, a spokeswoman for the FDA said the agency considers all data it is given when reviewing a drug but “does not have the authority to control what a company chooses to publish.”

Venture capital firms say they, too, are increasingly encountering cases of nonrepeatable studies, and cite it as a key reason why they are less willing to finance early-stage projects. Before investing in very early-stage research, Atlas Ventures, a venture-capital firm that backs biotech companies, now asks an outside lab to validate any experimental data. In about half the cases the findings can’t be reproduced, says Bruce Booth, a partner in Atlas’ Life Sciences group.

There have been several prominent cases of nonreproducibility in recent months. For example, in September, the journal Science partially retracted a 2009 paper linking a virus to chronic fatigue syndrome because several labs couldn’t replicate the published results. The partial retraction came after two of the 13 study authors went back to the blood samples they analyzed from chronic-fatigue patients and found they were contaminated.

Some studies can’t be redone for a more prosaic reason: the authors won’t make all their raw data available to rival scientists.

John Ioannidis of Stanford University recently attempted to reproduce the findings of 18 papers published in the respected journal Nature Genetics. He noted that 16 of these papers stated that the underlying “gene expression” data for the studies were publicly available.

But the supplied data apparently weren’t detailed enough, and results from 16 of the 18 major papers couldn’t fully be reproduced by Dr. Ioannidis and his colleagues. “We have to take it [on faith] that the findings are OK,” said Dr. Ioannidis, an epidemiologist who studies the credibility of medical research.

Veronique Kiermer, an editor at Nature, says she agrees with Dr. Ioannidis’ conclusions, noting that the findings have prompted the journal to be more cautious when publishing large-scale genome analyses.

When companies trying to find new drugs come up against the nonreproducibility problem, the repercussions can be significant.

A few years ago, several groups of scientists began to seek out new cancer drugs by targeting a protein called KRAS. The KRAS protein transmits signals received on the outside of a cell to its interior and is therefore crucial for regulating cell growth. But when certain mutations occur, the signaling can become continuous. That triggers excess growth such as tumors.

The mutated form of KRAS is believed to be responsible for more than 60% of pancreatic cancers and half of colorectal cancers. It has also been implicated in the growth of tumors in many other organs, such as the lung.

So scientists have been especially keen to impede KRAS and, thus, stop the constant signaling that leads to tumor growth.

In 2008, researchers at Harvard Medical School used cell-culture experiments to show that by inhibiting another protein, STK33, they could prevent the growth of tumor cell lines driven by the malfunctioning KRAS.

The finding galvanized researchers at Amgen, who first heard about the experiments at a scientific conference. “Everyone was trying to do this,” recalls Dr. Begley of Amgen, which derives nearly half of its revenues from cancer drugs and related treatments. “It was a really big deal.”

When the Harvard researchers published their results in the prestigious journal Cell, in May 2009, Amgen moved swiftly to capitalize on the findings.

At a meeting in the company’s offices in Thousand Oaks, Calif., Dr. Begley assigned a group of Amgen researchers the task of identifying small molecules that might inhibit STK33. Another team got a more basic job: reproduce the Harvard data.

“We’re talking about hundreds of millions of dollars in downstream investments” if the approach works,” says Dr. Begley. “So we need to be sure we’re standing on something firm and solid.”

But over the next few months, Dr. Begley and his team got increasingly disheartened. Amgen scientists, it turned out, couldn’t reproduce any of the key findings published in Cell.

For example, there was no difference in the growth of cells where STK33 was largely blocked, compared with a control group of cells where STK33 wasn’t blocked.

What could account for the irreproducibility of the results?

“In our opinion there were methodological issues” in Amgen’s approach that could have led to the different findings, says Claudia Scholl, one of the lead authors of the original Cell paper.

Dr. Scholl points out, for example, that Amgen used a different reagent to suppress STK33 than the one reported in Cell. Yet, she acknowledges that even when slightly different reagents are used, “you should be able to reproduce the results.”

Now a cancer researcher at the University Hospital of Ulm in Germany, Dr. Scholl says her team has reproduced the original Cell results multiple times, and continues to have faith in STK33 as a cancer target.

Amgen, however, killed its STK33 program. In September, two dozen of the firm’s scientists published a paper in the journal Cancer Research describing their failure to reproduce the main Cell findings.

Dr. Begley suggests that academic scientists, like drug companies, should perform more experiments in a “blinded” manner to reduce any bias toward positive findings. Otherwise, he says, “there is a human desire to get the results your boss wants you to get.”

Adds Atlas’ Mr. Booth: “Nobody gets a promotion from publishing a negative study.”

Write to Gautam Naik at gautam.naik@wsj.com

COMMENTS

3 hours ago

Patrick Butler wrote:

Oh snap!

Recommend

Link Track Replies to this Comment

2 hours ago

Dan Laroque wrote:

Of course they don’t reproduce the results. Like global climate change they use regression models that create lines for select bits of data however large or small. The level of confounding must be huge in drug trials just as they are in plant pathology work. The companies grab some academic who creates models like the ones used in the mortgage meltdown – they look great, complicated and authoritative. They don’t work.

To get reproducible results one must first control the biology to which the treatment (drug) is applied. Modeling is not a lost art. It is a black art.

1 Recommendation

Link Track Replies to this Comment

2 hours ago

Rob Dougan replied:

Issues? Didn’t see climate change in this article. But I guess your one of those people who enjoys pollution and smog. Ignorance is bliss eh.

3 Recommendations

Link Track Replies to this Comment

2 hours ago

Ian Gilbert wrote:

The holy writ of “evidence-based medicine” is “Users’ Guides to the Medical Literature”, Guyatt, et al., JAMA 2008 (2nd edition).

The underlying assumptions of “Users’ Guides etc.” are appalling:

Physicians are assumed to know and understand little to nothing about statistics, probability, and experimental design.

If they read and understand “Users’ Guides etc.”, physicians will end up with nothing more than a ruidimentary, superficial understanding of statistics, probability, and experimental design.

7 misterios del universo

El Universo está lleno de contradicciones, tantas como la naturaleza humana. Hay certezas, pero también incógnitas. Un vistazo a las noticias de última hora confirma lo predecible y extraño que puede llegar a ser. Ejemplo de certeza: los científicos rinden tributo a Albert Einstein con observaciones que confirman su teoría de la relatividad general, ese exótico concepto que aúna espacio y tiempo como una sola cosa. Un satélite lanzado en 2004, Gravity Probe B (GP?B), dotado de cuatro ultrasensibles giroscopios, acaba de demostrar en uno de los experimentos más elegantes, delicados y complejos de la física, que la Tierra, al girar, arrastra al espacio tiempo con ella, tal y como se deduce de los trabajos de Einstein. “Hay que imaginarla como si estuviera inmersa en miel. A medida que el planeta gira, la miel que está alrededor también lo hace con él. Ocurre lo mismo con el espacio-tiempo”, ha comentado Francis Everett, principal investigador de la Universidad de Stanford, quien ha dedicado tres décadas de su vida a probarlo. Ejemplo de incógnita: en el mismo mes de mayo donde se ratificaba a Einstein, astrónomos de la NASA descubrían una serie de diez extraños planetas flotando en medio de la oscuridad del espacio sin ninguna estrella alrededor. Estos mundos, situados entre 10.000 y 20.000 años luz de distancia de la Tierra, tienen el tamaño de Júpiter, y representan una nueva clase de planeta, que no tiene ningún sol al que rendir tributo ni órbita a su alrededor. El equipo de David Bennet, de la Universidad de Notre Dame en South Bend (Indiana, EE UU), especula con que quizá estos mundos han sido expulsados de los sistemas planetarios, convirtiéndose en una suerte de renegados cósmicos. Su número podría ser incluso más astronómico, ¡doblando el de las estrellas de nuestra Vía Láctea!

Información obtenida de El País para iPhone.

(desde el móvil)

7 misterios del universio (vía El País)

Estoy leyendo “The Singularity is near”

Según mi Kindle (virtual) voy por el 18% del libro

De momento deciros que en la forma, el libro se hace bastante repetitivo y regularmente estructurado pero que, en el fondo, en el contenido, es muy muy “acojonante” (por doble motivo: por lo impresionante de algunos números y predicciones y por el miedo que se te mete en el cuerpo)
(A ver si funciona mi servicio posterous.com enganchado con el resto de sitios y a ver si así pudiendo escribir simplemente un mail desde cualquier sitio me aficiono más a mini-postear)

Innovador optimismo

Me he pasado todo el día escuchando presentaciones de proyectos de innovación, en el marco del http://www.hitbarcelona.com

Abré escuchado con atención unos 24 de los 28 proyectos (no tengo a mano ahora el programa y no lo digo con exactitud).

Son los mejores 25 proyectos de un concurso mundial de emprendedores realmente selecto + 3 proyectos finalistas por haber ganado concursos anteriores (acc10 y emprendedorXXI).

Lo que más me ha agradado es que la innovación estaba principalmente concentrada en temas de medicina, sostenibilidad, países en desarrollo, y sólo alguno de internet puro y duro.  Afortunadamente hoy no había ninguna red social vertical (bueno había unos del MIT con una aplicación para facebook que seguro que tiene futuro y que utilizaré como usuario, pero no nos desviemos)

Al margen de que estas sean las empresas que en unos años conquisten el mundo en sus respectivos frentes, lo importante es que si no son estas serán sus competencias y eso querrá decir que estamos luchando contra la tuberculosis, contra el cancer, contra el hambre y no sólo haciéndonos más sofisticados socialmente con el meta del metainternet y especulando por qué será el 3.0 ahora que nos aburre hablar ya de 2.0 por todos lados.

Ya elaboraré con algo más de calma algunas referencias para daros ejemplos pero hoy me quedo con la anécdota de que, de los 2 millones de virtual-euros que teníamos cada uno del público, para votar a las empresas y proyectos que más nos habían gustado, yo lo he repartido entre una empresa mejicana que permite diagnosticar el cáncer de colon con mayor precocidad, precisión y ahorro que los métodos actuales; otra empresa (también cancerígena) de UK que tiene sistemas de algoritmos genéticos para facilitar los tratamientos a medida para cada paciente; una empresa americana que tiene dispositivos de detección casi instantánea de tuberculosis in situ; y por último, una española que el tío me ha caído bien y que puede convertirse en el google musical además de que espero que ayude a que los derechos de autor se repartan como mínimo con objetividad.

Mañana seguiré en el Hit que realmente me está pareciendo interesante. Es una pena que me perdiera el primer día (miércoles) ya que he visto algunas crónicas/blogs y creo que hubo alguna ponencia realmente buena. De hecho os tengo que buscar el link porque en una de ellas daban muchos ejemplos de cómo se estira y estira la life-expenctancy (siguiendo con alguna entrada de hace un par de días).

Actualizacion viernes 19: Aquí os dejo los proyectos presentados en el track de emprendedores:  Lista de los proyectos presentados en el HIT Barcelona 2009

Finalmente los premios han sido:

– Premio mejor presentación: eccopixel

– Premio mejor proyecto con impacto social: Broccoli Project

– Tercer premio: Polyskin

– Segundo premio: Broccoli Project

– Primer premio: bmat (estaba nominado para la final por haber sido también anteriormente ganador del primer premio EmprendedorXXI otorgado por La Caixa)

Las ponencias de hoy muy interesante. Especialmente me ha gustado el prof. Kennet Morse. Supongo que googleando o youtubeando un poco habrá alguna presentación parecida a la que ha dado hoy (me habían contado alguna anécdota de su presentación de hoy). Realmente una persona que transmite una gran capacidad y conocimiento pero que especialmente la adereza con aparente sencillez, cercanía y muy buen humor.

Un saludo.