La science et la technologie sont propulsées par le partage des connaissances. Pourtant, en dépit de leur importance vitale dans l'économie d'aujourd'hui axée sur l'innovation, nos infrastructures de la connaissance n'ont pas réussi à évoluer avec le rythme rapide de la recherche et de la découverte d'aujourd'hui.

Par exemple, les revues universitaires, les principales plateformes de diffusion des connaissances scientifiques, n'ont pas pu tirer parti des liens, de la transparence, de la communication dynamique et de l'autorité décentralisée et de la revue qu'Internet permet. De nombreux autres secteurs axés sur la connaissance, du journalisme au droit, souffrent d'un goulot d'étranglement similaire – causé non pas par un manque de capacité technologique, mais plutôt par une incapacité à concevoir et à mettre en œuvre des mécanismes efficaces, ouverts et fiables de diffusion de l'information.

Heureusement, l'insatisfaction croissante à l'égard des infrastructures actuelles de partage des connaissances a conduit à une compréhension plus nuancée des caractéristiques requises que ces plateformes doivent fournir. Avec une telle compréhension, les établissements d'enseignement supérieur du monde entier peuvent commencer à reprendre le contrôle et à accroître l'utilité des connaissances qu'ils produisent.

Lorsque le World Wide Web a vu le jour dans les années 1990, une ère de recherche solide fondée sur le partage ouvert des progrès scientifiques semblait inévitable. Internet – initialement un réseau de recherche – a promis une démocratisation de la science, un accès universel à la littérature universitaire et une nouvelle forme de publication ouverte qui a soutenu la découverte et la réutilisation des artefacts de connaissances à l'échelle mondiale. Malheureusement, cependant, cette promesse n'a jamais été réalisée. Les universités, les chercheurs et les agences de financement, pour la plupart, n'ont pas réussi à organiser et à sécuriser les investissements nécessaires à la construction d'infrastructures de connaissances évolutives, et les sociétés d'édition ont décidé de consolider leur position de pourvoyeurs de connaissances.

Au cours de la décennie suivante, ces éditeurs ont consolidé leur emprise. En contrôlant les revues les plus prestigieuses, ils ont pu facturer l'accès – extraire des milliards de dollars de frais d'abonnement tout en empêchant une grande partie du monde de la littérature universitaire. En effet, certains des établissements universitaires les plus riches du monde ne sont plus en mesure ou désireux de payer les frais d’abonnement requis.

De plus, en contrôlant bon nombre des revues les plus prestigieuses, les éditeurs ont également été en mesure de se positionner entre la création et la consommation de la recherche, et ainsi d'exercer un énorme pouvoir sur l'examen par les pairs et les mesures d'impact scientifique. Ainsi, ils sont capables d'influencer de manière significative la réputation académique, les embauches, les promotions, les progressions de carrière et, finalement, l'orientation de la science elle-même.

Mais les signes suggèrent que l'avenir brillant envisagé dans les premiers jours d'Internet est toujours à portée de main. La prise de conscience croissante et l’insatisfaction à l’égard des nombreux goulets d’étranglement imposés par le monopole commercial de l’information sur la recherche stimulent de nouvelles stratégies de développement des futures infrastructures de la connaissance. L'un des plus prometteurs est le virage vers des infrastructures créées et soutenues par des institutions universitaires, les créateurs originaux des informations partagées et des consortiums à but non lucratif comme la Collaborative Knowledge Foundation et le Center for Open Science.

Ces infrastructures devraient exploiter pleinement les capacités technologiques du World Wide Web pour accélérer la découverte, encourager davantage de soutien à la recherche et mieux structurer et transmettre les connaissances. En alignant les incitations académiques sur les résultats socialement bénéfiques, un tel système pourrait enrichir le public tout en amplifiant l'impact technologique et sociétal des investissements dans la recherche et l'innovation.

Nous avons décrit ci-dessous les trois domaines dans lesquels le passage à des plateformes appartenant à des universitaires produirait l'impact le plus élevé.

Accès vraiment ouvert

Le passage aux médias en ligne et numériques a permis la déconstruction du processus de publication universitaire précédent en ses composantes: examen par les pairs, révision et conception. Le mouvement de libre accès, qui vise à rendre la littérature savante accessible gratuitement en ligne, a commencé comme une réponse à ce potentiel. Initialement axés sur l'auto-archivage, ou Green OA, les chercheurs ont commencé à rendre leurs résultats facilement et librement accessibles en téléchargeant des manuscrits de prépublication dans des référentiels et services institutionnels universitaires. Le mouvement des référentiels a commencé à prendre de l'ampleur lorsque l'Université de Harvard a établi la première politique d'auto-archivage des États-Unis en 2008. D'autres universités de recherche du monde entier ont rapidement suivi.

Mais les référentiels en libre accès et institutionnels n'ont jamais réalisé leur potentiel pour transformer la communication de la recherche. Non seulement l'investissement n'a pas été à la hauteur des fonds nécessaires pour soutenir le développement de plateformes évolutives, mais les éditeurs commerciaux ont également réussi à contourner le mouvement. Ils ont révisé les licences pour bloquer ou retarder l'auto-archivage, créant des revues payantes à publier ou «Gold OA», et ont lancé des services d'analyse et de workflow de recherche. Cette stratégie intelligente de division et de conquête a réussi à contrecarrer la collaboration sur le développement des infrastructures académiques en libre accès.

Une réponse possible serait que les institutions fassent pression sur les éditeurs pour qu'ils réduisent les frais. Jusqu'à présent, les accords de confidentialité et d'autres efforts juridiques ont réussi à bloquer une telle négociation collective, bien qu'il y ait des signes qui changent. Le Plan S, par exemple, une initiative en libre accès soutenue par une coalition d'une douzaine de grands bailleurs de fonds européens de la recherche, responsables de milliards de dollars de fonds par an, a été lancée en 2018 et sera opérationnelle en 2020.

Mais tant que les éditeurs contrôlent l'infrastructure sous-jacente, y compris les revues clés, ils peuvent toujours simplement retirer des frais ailleurs ou monétiser d'autres parties du pipeline de recherche. Pour aggraver les choses, l'émergence de revues prédatrices – qui ont peu ou pas de contrôle de qualité ou d'examen par les pairs – a encore sapé le mouvement du libre accès.

Une façon de réduire les coûts de publication consiste à dégrouper les services des éditeurs afin de refléter avec précision le travail à valeur ajoutée et de fixer les frais à des niveaux universellement accessibles. À certains égards, cette solution pourrait ressembler à la transition de la publication en ligne vers les blogs. Avant les plateformes de blogs, les grandes sociétés de logiciels facturaient des millions de dollars pour les systèmes de gestion de contenu, qui sont toujours utilisés dans des environnements professionnels complexes. Mais il s'est avéré que les logiciels libres et les normes ouvertes pour interopérer entre les services, ont encouragé la création de plates-formes de publication simples et extrêmement peu coûteuses – ce qui, à son tour, a conduit à l'émergence de contenu généré par les utilisateurs et ce qui a devenir maintenant les médias sociaux.

Alors que la publication académique est beaucoup plus compliquée, une refonte du logiciel, des protocoles, des processus et des activités sous-jacentes à la publication académique pourrait la révolutionner à la fois financièrement et structurellement – permettant une publication durable, universelle, en libre accès sans murs payants.

Mesures d'impact significatives

Alors que la recherche universitaire devrait idéalement être jugée sur ses mérites individuels, le paradigme actuel repose fortement sur le prestige de la revue dans laquelle la recherche a été acceptée comme une heuristique d'importance. Étant donné qu'une poignée d'entités commerciales contrôlent de telles revues «à fort impact», elles sont en mesure de renforcer ce statu quo basé sur les revues. Une conséquence de ce système est le facteur d'impact souvent référencé d'une revue, qui est censé indiquer l'impact ou la qualité de la recherche qu'une revue accepte pour publication.

Malheureusement, le facteur d'impact est souvent connu pour être un mauvais indicateur de la qualité de la recherche, et il peut également être facilement joué par des «cartels de citations», des citations personnelles coercitives et d'autres stratégies bien documentées. Pourtant, malgré cela, il a un impact significatif et auto-réalisateur sur l'embauche et la promotion des chercheurs. Les membres du comité qui prennent de telles décisions évaluent souvent un candidat en fonction du prestige de la revue dans laquelle leurs recherches ont été publiées, de sorte que les jeunes chercheurs en voie de permanence sont généralement obligés de donner la priorité à la publication dans des revues avec des facteurs d'impact élevés, défectueux car la métrique est . En conséquence, l'emprise de l'entreprise sur notre infrastructure de connaissances se renforce et des travaux importants se retrouvent derrière des murs de paiement et sont largement inaccessibles à quiconque en dehors d'une université ou d'un laboratoire de recherche majeur.

Examen par des pairs dignes de confiance

Les éditeurs contrôlent actuellement le processus d'acceptation ou de rejet d'une nouvelle découverte pour publication. Un panel anonyme de pairs examine la plupart des articles, et certaines revues nécessitent une revue en double aveugle afin de lutter contre les biais.

Ce processus est interrompu de plusieurs façons. D'une part, de nombreux articles sont déjà publiés sur des serveurs d'archives et de préimpression, donc dans le cas d'une révision en double aveugle, il est facile pour les examinateurs de trouver les auteurs d'un article sur Internet. Cela évite non seulement un examen en double aveugle, mais sert également à renforcer les préjugés et les affiliations tribales.

De plus, les preuves suggèrent que les examinateurs ne sont pas toujours en mesure de juger de manière cohérente et précise la qualité des nouvelles idées et qu'ils peuvent en escompter la valeur. De plus, il n'est pas certain que les examinateurs soient suffisamment incités à prêter attention. Alors que la révision par les pairs était traditionnellement considérée comme faisant partie de ses obligations académiques, les chercheurs occupés peuvent être de moins en moins disposés à consacrer un temps considérable à l'examen de la recherche pour les éditeurs.

Peut-être pouvons-nous améliorer l'examen par les pairs, comme pour d'autres aspects de l'édition, en nous inspirant des développements technologiques en dehors du domaine de l'édition académique traditionnelle. En fait, les médias sociaux et les blogs sont déjà une force dans de nombreuses disciplines scientifiques, avec des critiques ouvertes et non sollicitées qui apparaissent souvent dans les heures suivant leur publication. La construction de schémas qui fournissent un crédit académique aux examinateurs, comme la taxonomie CRediT, est un moyen prometteur d'encourager la révision et donc de mettre à l'échelle de telles sources alternatives mais précieuses de révision post-publication.

Compte tenu des millions d'étudiants diplômés actifs, de post-doctorants et d'autres consommateurs réguliers de littérature universitaire, créer un système qui récompense les gens pour la recherche, la recherche et le pari d'une certaine réputation sur de nouvelles œuvres non vérifiées – semblable à un scoutisme sportif ou à un capital-risqueur débutant – – semble prometteur. Et le concept pourrait être élargi: par exemple, des ressources pourraient être ajoutées pour encourager les examens de la recherche traditionnellement négligée pour lutter contre les biais dans le système actuel.

Si nous pouvons en effet rendre le travail d'examen par les pairs plus sur la recherche et la récompense d'idées nouvelles et nouvelles – au lieu d'un système qui renforce les réseaux tribaux et les préjugés du monde universitaire – nous pouvons améliorer considérablement le progrès de la recherche, tout en le rendant plus équitable et accessible au monde entier.

Vers de nouvelles infrastructures du savoir

Réorganiser avec succès l'écosystème actuel n'est probablement pas possible avec une poignée d'entités commerciales très rentables sous contrôle. Pour qu'un tel changement de paradigme se produise, les universités doivent affirmer une certaine appropriation des mécanismes de partage de la production de connaissances.

Cela peut être réalisé grâce à des partenariats entre des organisations productrices de connaissances alignées sur la mission, telles que des maisons d'édition universitaires et des laboratoires de recherche. Ces partenariats peuvent s'appuyer sur les ressources existantes, la reconnaissance de la marque, la confiance et les réseaux de talents et de capitaux pour faciliter l'incubation de nouvelles infrastructures de connaissances et de projets connexes. De plus, les nouvelles organisations formées par de tels partenariats peuvent travailler ensemble pour créer des consortiums inter-organisationnels – à travers lesquels des informations pourraient être échangées et les projets et cadres incubés les plus réussis pourraient se développer organiquement. Ce modèle est à la fois général et évolutif, et il pourrait être largement reproduit.

Par exemple, au MIT Press et au MIT Media Lab, nous avons récemment lancé une collaboration appelée Knowledge Futures Group, qui se concentre sur le développement et le déploiement de technologies de nouvelle génération. En servant d'incubateur pour des projets liés à la publication, la collaboration vise à: 1] soutenir des projets qui enrichissent l'infrastructure de la connaissance et 2] déclencher un mouvement vers un plus grand investissement institutionnel dans cette infrastructure et l'appropriation de cette infrastructure.

Par exemple, le groupe développe une nouvelle plate-forme de publication open-source appelée PubPub, qui utilise un format graphique simple et prend en charge les illustrations et le texte programmatiques ainsi que les PDF statiques. Le but du projet PubPub est de créer une alternative dirigée par l'auteur aux revues universitaires qui est adaptée à la nature dynamique de beaucoup de nos expériences et découvertes modernes.

Nous développons également Underlay, une méthode globale et distribuée de liaison et de compréhension des connaissances du public qui rendra les données et le contenu hébergés sur PubPub disponibles pour d'autres plateformes. Ces plateformes peuvent être utilisées pour expérimenter un examen par les pairs transparent et moins biaisé.

De plus, le Knowledge Futures Group soutient le développement de nouvelles plateformes pour le calcul et le partage de mesures d'impact scientifique plus rigoureuses. En combinant ces mesures avec l'apprentissage automatique, nous pouvons avoir un aperçu des tendances et des fonctionnalités qui conduisent à des idées percutantes. De telles prévisions peuvent également aider à construire des cadres quantitatifs, basés sur les données, pour l'allocation des ressources aux projets de recherche d'une manière qui maximise l'impact, et nous explorons les opportunités de piloter ces nouveaux mécanismes de financement dans le monde réel.

En conclusion, si nous, dans l'enseignement supérieur, devons réaliser la promesse transformatrice du Web pour la science et l'érudition, le contrôle de l'infrastructure du savoir doit passer d'un oligopole commercial à des partenariats détenus et gérés par des universitaires. Pour cela, les universités doivent continuer à affirmer une plus grande autorité sur les systèmes de représentation, de diffusion et de préservation des connaissances. Cela nécessitera non seulement la construction de nouveaux outils et protocoles open source, mais également la construction de nouvelles plates-formes pour l'examen par les pairs, l'attribution et le suivi de l'impact qui récompensent activement les idées nouvelles et de haute qualité.

Grâce à la construction de tels partenariats, nous pouvons tirer parti de l'écosystème sans cesse croissant d'outils open source pour développer, tester et déployer de nouveaux systèmes et processus ouverts, transparents et rentables qui aideront les chercheurs et les organisations. Cela permettra une évolution vers une plus grande propriété institutionnelle et publique des plateformes sous-jacentes à la diffusion des connaissances – et la reconquête du territoire perdu par les éditeurs et les fournisseurs de technologies commerciales au cours des dernières décennies.

Ce qui constitue la connaissance, l'utilisation de la connaissance et le financement de la connaissance est intimement lié à l'avenir de notre planète et de notre espèce. Nous devons le protéger activement des incitations purement dictées par le marché et d'autres forces de corruption. La transformation nécessitera un mouvement impliquant un réseau mondial de collaborateurs, et nous espérons contribuer à la catalyser.