30.12.11

ETUDE / 10 tendances-clés de l’Open Innovation


i7, l'Institut pour l'Innovation et la Compétitivité, le think-tank académique porté par ESCP Europe et la Fondation Europe+, a réalisé, en partenariat avec Accenture, un état des lieux auprès de 20 entreprises internationales qui pratiquent l'Open Innovation depuis plusieurs années.

Ces entreprises appartiennent à divers secteurs, de l'agroalimentaire (Danone, General Mills et Kraft…) à la grande consommation (Procter & Gamble, Unilever, Beiersdorf…) jusqu'à la chimie, l'industrie pharmaceutique et la téléphonie (Alcatel Lucent, GE, Merck…).

Ce rapport met en évidence les étapes du processus d'intégration de l'Open Innovation en 10 tendances-clés :
- L'approche structurée et systématique pour « faire rentrer l'extérieur »
- Le rythme d'adoption rapide : 10 ans entre les pionniers et la diffusion
- Le vivier quasiment illimité de sources externes
- Le choix du degré et d'objet d'ouverture
- L'équilibre entre le nombre et l'intensité des partenariats
- Le pilotage des partenariats
- La nécessité d'investissement
- L'évolution de la culture d'entreprise
- Le pilotage de la performance
- L'impact et les facteurs de succès

Au-delà de l'intérêt populaire pour la mode de l'Open Innovation, l'étude montre que ce concept est à l'origine d'un profond changement dans l'approche de l'innovation des entreprises, qui leur permet d'accélérer et d'améliorer leur capacité d'innovation, d'une manière plus écologique et peut-être plus économe. L'Open Innovation se concentre sur la découverte de nouvelles idées, la réduction des risques, l'exploitation de ressources rares et paradoxalement l'amélioration de la protection de la Propriété Intellectuelle. Le business model de l'Open Innovation est un critère clé de son succès. La confiance et la capacité d'absorption sont les principaux ingrédients des situations gagnant-gagnant.

L’histoire de l’innovation contemporaine c’est les Big Data

La lecture de la semaine provient de la vénérable revue The Atlantic et on la doit à Erik Brynjolfsson, économiste à la Sloan School of Management et responsable du groupe Productivité numérique au Centre sur le Business numérique du Massachusetts Institute of Technology et Andrew McAfee auteurs Race Against the Machine ("La course contre les machines où comment la révolution numérique accélère l'innovation, conduit la productivité et irréversiblement transforme l'emploi et l'économie"). Elle s'intitule : "l'histoire de l'innovation contemporaine, c'est les Big Data" (c'est le nom que l'on donne à l'amoncellement des données).

En 1670, commence l'article, à Delphes, en Hollande, un scientifique du nom de Anton van Leeuwenhoek (Wikipédia) fit une chose que beaucoup de scientifiques faisaient depuis 100 ans. Il construisit un microscope. Ce microscope était différent des autres, mais il n'avait rien d'extraordinaire. Comme beaucoup d'inventeurs, il s'était appuyé sur l'ingénuité de ses prédécesseurs. Mais quand il a regardé dans son microscope, il a trouvé des choses qui semblaient extraordinaires. Il les a nommées "animalcules"… C'était des microbes dans des gouttes d'eau et du sang humain qui furent à l'origine de la théorie des germes de la maladie qui inspira nombre de traitements médicaux.

La découverte de Leewenhoek est cruciale pour notre compréhension de l'innovation, pas seulement parce qu'elle a changé le visage de la biochimie, mais aussi parce qu'elle incarne un paradigme fondamental de la découverte : les avancées dans l'innovation reposent souvent sur des avancées dans la mesure.

Les entreprises d'aujourd'hui peuvent mesurer leur activité et leur relation aux clients avec une précision sans précédent. Résultat, elles croulent sous les données. C'est particulièrement vrai dans l'économie numérique où la prise en compte des clics offre des perspectives très précises et en temps réel sur le comportement des consommateurs. En retour, les consommateurs agissent comme les consultants involontaires de ces entreprises. Nos achats, nos recherches et notre activité en ligne sont tracés pour tout améliorer, des sites web aux trajets de livraison et à la fabrication des médicaments. Quiconque ayant accès à un navigateur Web peut obtenir la liste de milliards de recherches par mot-clé et ce type d'information est un outil de prédiction de l'activité économique présente et à venir. Les téléphones mobiles, les voitures, les robots dans les usines et beaucoup d'autres outils sont couramment programmés pour générer des flots de données sur leur activité, rendant nécessaire l'émergence d'un champ, le reality mining (fouille de la réalité) pour analyser ces informations.

Le plus gros de ces informations est généré gratuitement par des ordinateurs et demeure inutilisé, du moins au départ. Car depuis quelques années, il est commun qu'une entreprise cherche un outil d'intelligence business pour faire quelque chose à partir de ce monceau de données recueilli sur ses activités. Par exemple, Enologix a utilisé cette approche pour aider les vignobles Gallo à prévoir les notes que Robert Parker mettrait à des nouveaux vins. UPS a fouillé ses données sur les livraisons pour développer une nouvelle méthode de routage et Match.com a même développé de nouveaux algorithmes pour les rencontres hommes femmes. A chaque innovation, des analystes inventent de nouvelles technologies de mesure pour remplacer les experts humains qui s'appuient trop sur l'intuition.

Cependant, malgré leurs forces, les mesures ont un défaut. Elles n'identifient pas la causalité. Un exemple simple : à l'école élémentaire, la taille des chaussures et les aptitudes à la lecture sont corrélées, mais ça ne signifie pas qu'il y ait un lien de causalité ; au contraire, l'une et les autres se réfèrent à une troisième variable : l'âge. Heureusement, la science a un second outil puissant spécialement inventé pour déterminer les causalités. Cet outil, c'est l'expérimentation.
Pendant près de 400 ans, la science a été dominée par l'approche expérimentale. C'est le meilleur moyen de faire émerger les causalités. Mais jusqu'à maintenant, il n'était pas facile pour les entreprises de mener des expériences (à cause de leur coût, du temps qu'elles nécessitent…). Ce n'est que récemment qu'elles ont appris à expérimenter en temps réel sur leurs clients. Et c'est le web qui a rendu cela possible.

Prenez deux entreprises nées du numérique : Amazon et Google. Une partie essentielle de la stratégie de recherche d'Amazon est un programme d'expérience dit "A-B" qui consiste à développer deux versions de son site Web. En utilisant cette méthode, Amazon peut tester un nouveau moteur de recommandation pour les livres, un nouveau service, un système de vérification ou tout simplement un nouvel élément de design. Il suffit parfois à Amazon de quelques heures pour voir une nette différence statistique entre les deux sites. La faculté à tester rapidement les idées change fondamentalement la mentalité de l'entreprise et sa manière d'envisager l'innovation. Plutôt que de tergiverser des mois sur un choix, plutôt que de bâtir des modèles de scénario, l'entreprise demande simplement à ses clients et obtient une réponse en temps réel. (Les auteurs mènent la même analyse à propos de Google).

Greg Linden, qui a mené des expériences pour Amazon décrit cette nouvelle philosophie de l'expérimentation comme suit : "Pour trouver des expériences à fort impact, vous devez tenter beaucoup. Le génie naît de milliers d'échecs. Dans chaque tentative ratée, il y a une leçon qui vous aide à trouver quelque chose qui marchera. L'expérimentation constante, continue et ubiquitaire est la chose la plus importante."

Ces mots font écho à l'approche des inventeurs depuis Thomas Edison mais les nouvelles technologies ont rendu possible de l'appliquer à un panel plus large d'entreprise et ont significativement compressé le temps du cycle "hypothèse-expérience".

Xavier de la Porte

Source : http://www.internetactu.net/2011/11/28/lhistoire-de-linnovation-contemporaine-cest-les-big-data/