Libre accès à l'information scientifique et technique
Actualités, problématiques et perspectives

Synthèse commentée des discussions du séminaire de janvier 2003

Jack FRANKLIN

Directeur de ASFRA BV

Au cours de ce séminaire, de nombreux aspects du Libre Accès (Open Access) ont été couverts comme on peut le voir en lisant la transcription des interventions. L’amélioration de l’accès à l’information scientifique technique (IST) et de sa diffusion était au cœur des débats. Les aspects économiques abordés au cours des discussions ont principalement concerné la diminution des coûts de l’IST et les moyens que la communauté de l’IST pourrait mettre en œuvre pour y arriver. Et en filigrane, le ressentiment des scientifiques en général était omniprésent : les chercheurs consignent gratuitement les résultats de leurs recherches dans des articles qui sont la base des revues scientifiques et doivent ensuite payer pour accéder à leurs propres documents scientifiques et à ceux des autres.

Ce ressentiment vire à l’amertume lorsque l’on met en parallèle les coûts de l’IST et les nouvelles technologies de l’information qui devraient permettre à la communauté scientifique d’accéder « gratuitement » aux énormes masses de « données brutes » essentielles à la recherche. On peut maintenant faire des recherches croisées dans différentes bases réparties sur différents sites à travers le monde. On peut analyser un article particulier voire seulement certaines sections de cet article. On peut naviguer d’un article à un autre ou d’un article à un tableau de données sur le même sujet dans une base de données à distance en cliquant sur des liens. Et pendant ce temps, les résultats de la recherche continuent d’être publiés sous forme d’articles dans des revues scientifiques plus ou moins thématiques destinées à des communautés scientifiques bien précises. Ce système d’édition est de plus en plus coûteux et de moins en moins efficace et aujourd’hui, il pourrait même freiner la circulation et l’utilisation de l’IST.

Paul Uhlir de CODATA a souligné l’importance accordée à cette situation aux Etats-Unis. Il a également passé en revue les changements actuels concernant la loi sur l’information qui sont venus renforcer les droits de propriété intellectuelle des fournisseurs d’information. Au même moment, certains organismes limitent les informations qu’ils mettent dans le domaine public sous la pression de contraintes économiques alors que l’Internet permet de rendre l’information publique à ceux qui souhaitent le faire. Les politiques concernant le libre accès sont donc en pleine évolution dans de nombreux domaines du secteur public et de nombreuses entreprises commerciales se servent de l’Internet pour offrir un accès, fort souvent gratuit, à leurs informations

Cette inflation de « l’information gratuite » sur l’Internet vient renforcer l’idée reçue que l’Internet lui-même est gratuit. De nombreux intervenants se sont clairement exprimés à ce sujet. Alors qu’il y a tout lieu de penser que les mécanismes du marché feront en sorte que les services gratuits aujourd’hui soient payants demain, l’habitude d’accéder gratuitement sur le web à d’énormes volumes de données à valeur ajoutée est déjà bien ancrée chez les chercheurs. De plus, cette gratuité est considérée comme un droit : après tout, la communauté scientifique qui a déposé gratuitement ses données dans des bases de données, est en droit de demander un accès gratuit à ces mêmes bases.

Il n’y a pas si longtemps, la notion de gratuité ne s’appliquait qu’aux données brutes car on partait du principe que toute valeur ajoutée pouvait être payante. Cependant, la science moderne s’appuie de plus en plus sur les liens, qu’elle autorise et encourage d’ailleurs, entre les bases de données factuelles, les bases de données bibliographiques et l’article scientifique, et les frontières entre les différents lieux de stockage s’estompent. L’article scientifique n’est plus un document statique, enfermé dans un fascicule de revue ; c’est un texte électronique dynamique que l’on peut transporter, lire, triturer et fusionner et dont les données peuvent être utilisées par d’autres logiciels. Avec l’avènement de l’Internet, les informations ne sont plus nécessairement archivées sous une forme papier.

Les nouvelles perspectives ouvertes par l’Internet ne sont pas étrangères aux chercheurs qui connaissent bien le monde informatique. Bon nombre d’entre eux se sentent donc frustrés par les restrictions d’accès et d’utilisation qu’ils rencontrent. L’utilisateur en ligne peut déjà naviguer sur le web en cheminant d’une donnée à l’autre au moyen de liens, mais au cours de ce cheminement il doit rencontrer la version finale de l’article publié et évalué par les pairs.

La revue traditionnelle date d’une autre époque. Il était alors raisonnable de vouloir regrouper les articles qui se ressemblent dans une revue sur le même sujet ; cette situation a été exacerbée par l’augmentation exponentielle de l’IST et chaque année des centaines d’articles supplémentaires étaient publiés dans de nouvelles disciplines ou sous-disciplines. Le lecteur avait besoin d’aide pour localiser et commander les articles qui l’intéressaient et les éditeurs ont profité de l’occasion pour créer des offres globales d’articles et exploiter ainsi toute une série de marchés spécifiques. Par contre, l’utilisateur n’avait pas son mot à dire dans le choix des articles faisant partie d’une sélection ; l’entière responsabilité en incombait aux éditeurs. De nos jours, un ordinateur peut se charger instantanément des tâches d’indexation nécessaires pour classer un article dans une discipline. Les utilisateurs peuvent retrouver, s’ils en ont l’occasion, des articles pertinents au sein d’une masse d’information.

Malheureusement pour les éditeurs, le moment où, sous l’impulsion des nouvelles technologies, les utilisateurs se mettent à réfléchir à comment utiliser l’information autrement coïncide avec la forte augmentation des coûts de l’édition scientifique traditionnelle. Le nombre de pages, le nombre de titres, en particulier pour les revues scientifiques, augmentent chaque année alors que peu de revues disparaissent. L’augmentation des coûts est donc inévitable dans un système qui repose sur la vente de l’information sous forme de pages, de fascicules et de volumes imprimés. De plus, les offres groupées des éditeurs sont tellement bien ficelées que l’utilisateur ne peut pas choisir à sa guise ce dont il a besoin ; il lui faut prendre toute la revue même si une bonne partie de ladite revue ne lui sert à rien.

En fait, la revue sous forme de volumes était bien adaptée au marché des bibliothèques. Un utilisateur pouvait ne pas avoir besoin de la plupart des articles d’un volume, voire du volume entier, mais l’idée était que d’autres utilisateurs de la bibliothèque pouvaient en avoir besoin. Ainsi, on a vendu bon nombre d’articles que personne n’a jamais lus.

Cette adhésion au marché des bibliothèques de la part des éditeurs pouvait se justifier tant que les revues étaient produites en format papier, mais cette formule est de plus en plus obsolète. Même les éditeurs qui s’accrochent au modèle de la revue en volume se mettent à produire et diffuser des versions électroniques de leurs revues. Il va falloir que les éditeurs assouplissent leurs modèles commerciaux au fur et à mesure que le marché se tourne vers l’utilisation à l’article. (Récemment, les éditeurs ont voulu répondre à cette demande en proposant des licences de site pour leurs contenus ce qui ne fait qu’alourdir le modèle de la revue en volume puisque les acheteurs sont contraints d’acquérir encore plus d’informations sous forme d’offres groupées alors qu’ils voudraient acheter des contenus spécifiques à leurs besoins).

La plupart des scientifiques ne connaissent pas les coûts réels des informations qu’ils utilisent mais ils se rendent de plus en plus compte que l’information dont ils ont besoin n’est plus disponible dans leur bibliothèque locale car cette dernière n’a plus les moyens de l’acheter. Pierre Oudet de l’INSERM a présenté une étude en cours qui montre que bon nombre de bibliothèques françaises ne disposent plus des ressources nécessaires pour acquérir les documents dont elles ont besoin. C’est pourquoi l’INSERM fait œuvre de pionnier en envisageant comme solution un service qui mettrait gratuitement tous les résultats des recherches financées par l’institut à disposition des chercheurs. Ces travaux qu’ils soient ou non publiés seront reliés à d’autres données afin de proposer un réseau de documents et d’en améliorer l’utilisation.

Cette initiative pourrait apporter une solution à deux problèmes majeurs : d’une part, l’INSERM rendra les résultats de la recherche qu’il finance plus accessibles au monde extérieur et d’autre part, la meilleure visibilité de leurs travaux encouragera les chercheurs à participer au réseau de leur institut.

Les éditeurs qui voudront ignorer une telle situation le feront à leurs risques et périls. Les auteurs sont aussi des lecteurs et, avec l’escalade incontrôlée des coûts, il n’est pas rare qu’ils réalisent que leur bibliothèque n’a plus les moyens de s’abonner aux revues dans lesquelles ils publient leurs articles. L’ironie est que ces mêmes auteurs ont remis leurs articles aux éditeurs gratuitement, ce qui ne fait qu’attiser les passions.

De nombreux chercheurs s’accordent pour dire que l’initiative sur les archives ouvertes (Open Archives Initiative – OAI ) est arrivée au bon moment (voir les différences entre le libre accès et les archives ouvertes dans https://openaccess.inist.fr.inist.fr/spip.php?page=glossaire ). Un des buts de la recherche est d’être publiée. Les auteurs estiment qu’ils devraient pouvoir « publier » leurs travaux de manière à ce qu’ils soient accessibles au plus grand nombre. Si toutes les informations étaient disponibles sur le Web, dans des systèmes sécurisés permettant un accès libre et immédiat, le chercheur pourrait publier ses articles de telle manière que tout le monde puisse les lire. Et ce n’est pas tout. Des liens entre les données et les articles, entre les collections et les notes non-publiées seraient également possibles. On pourrait ainsi utiliser des données comme on ne peut actuellement le faire. Et à première vue, tout cela devrait être gratuit (tout du moins en ce qui concerne l’utilisateur).

Peu de chercheurs s’opposent à de tels projets. Ces projets intéressent également les financiers de la R&D ainsi que tous ceux qui souhaitent une distribution plus équitable de l’information de base – la matière brute du savoir et du progrès – au niveau mondial. Les investisseurs ne souhaitent pas que l’accès aux fruits de leurs investissements soit verrouillés car le bien public est le but ultime du financement public de la recherche. Le libre accès pourrait donc jouer un rôle politique dans les discussions, qu’il s’agisse de la dissémination rapide de la R&D cœur ou de l’amélioration des pays en développement.

Il n’en demeure pas moins que le mouvement du libre accès est un mouvement récent qui, bien que ses objectifs soient excellents, doit encore faire ses preuves. Le libre accès n’est actuellement testé que par une petite partie du marché. Le mouvement a besoin pour fonctionner aujourd’hui de personnes bien au fait des technologies ; il est donc probable qu’en IST la majorité du public ne connaît pas dans une large mesure les avantages et les difficultés que représente le libre accès. Tout cela pourrait changer rapidement et ce séminaire a sensibilisé les participants au potentiel du libre accès. Il a facilité des discussions ouvertes qui devraient servir de base pour de futures rencontres éventuellement plus ciblées et plus approfondies.

Nous avons assisté, peut-être en raison de la nouveauté du sujet, à de nombreuses discussions mais peu de solutions ont été proposées bien que certains problèmes soient omniprésents dans l’esprit de nombreux participants. Les questions concernant le contrôle qualité et l’archivage, c’est-à-dire la préservation du patrimoine scientifique, devront faire l’objet de réunions ultérieures. Les questions essentielles sur les moyens de s’assurer que l’information retrouvée est la bonne et que le document obtenu correspond bien à la version finale validée n’ont pas non plus été abordées. De plus, le problème crucial du financement nécessaire pour garantir à long terme l’accessibilité permanente des documents a été laissé de côté.

Pour le moment, le fait que les partisans du libre accès ne voient dans ce mouvement qu’un moyen d’améliorer l’accès à l’information, est probablement à la source de telles omissions. Peu d’entre eux se sont penchés sur les coûts qu’ils devront assumer si les services qu’ils proposent devaient en fait se substituer au monde de l’édition scientifique actuelle. Il faudra bien que quelqu’un, quelque part prenne en charge les coûts de la technologie, des systèmes et des infrastructures informatiques indispensables à la survie du libre accès. Les coûts d’un service en libre accès capable d’absorber les flux d’IST actuels seront énormes et il ne faut pas s’attendre à ce que les financements publics puissent se substituer aux financements dont disposent les éditeurs commerciaux aujourd’hui[1].

Le fait que l’on semble vouloir occulter les aspects financiers du service est assez préoccupant. En effet, il y a que très peu voire pas du tout de preuves, que les organismes publics nationaux et internationaux et autres agences de financement s’intéressent au financement à long terme de l’environnement du libre accès. Il se peut que le libre accès arrive à trouver des sources de financement comme le fait actuellement l’Internet, mais les sommes impliquées seront probablement plus élevées et les objectifs de financement ne sont pas les mêmes. Il ne faut pas oublier non plus que de nombreux organismes de financement ont des règles très strictes en ce qui concerne l’attribution de leurs subventions. Les projets que finance l’Union européenne, comme FIGARO, destinés à péréniser des projets indépendants, ne sont légalement en droit d’attendre aucune poursuite de leur financement, il faudra qu’ils se tournent vers d’autres pour qu’il soit poursuivi une fois leurs subventions terminée. Il faut déplorer le fait qu’aucun représentant de la Commission Européenne n’ait pu participer au débat, malgré les efforts des organisateurs.

Ce manque de discussion sur les aspects financiers a sérieusement interpellé les acteurs commerciaux. Si le fond du problème n’était pas d’ordre financier, la remise en question de l’environnement actuel de l’édition commerciale n’avait plus raison d’être. Pour survivre, il faut que le libre accès, en plus des technologies nécessaires, puisse assurer son propre avenir financier à long terme. De plus, si la montée en puissance d’un libre accès encore instable arrivait à faire tomber le système commercial actuel, l’IST y perdrait plus qu’elle n’y gagnerait. Il faut que le marché de l’information scientifique soit efficace et continu. Certes les services commerciaux actuels sont chers, mais ils marchent ; alors pourquoi devrait-on en changer ?

A ce jour, le projet le plus orienté vers le libre accès est celui de PLoS qui vient de recevoir quelque 9 millions de dollars US pour démarrer. Les acteurs commerciaux présents au séminaire ont estimé que cette somme était très insuffisante. Plus important encore, même si cette somme initiale est suffisante, d’où viendront les 9 millions suivants ? Est-ce que ce même bienfaiteur serait prêt à donner et redonner des sommes de plus en plus importantes pour assurer l’avenir du projet face à l’augmentation annuelle des volumes d’informations ? Ces éventuels bienfaiteurs seront-ils d’accord pour que tous les auteurs utilisent leurs systèmes gratuitement ? N’assisterons-nous pas à des situations semblables à celles des bases de données qui fournissent un accès gratuit à certaines bases aux utilisateurs de l’enseignement supérieur et font payer les entreprises commerciales ? (cf. les conditions d’accès de SWISSPROT dans le rapport précédent).

Une autre difficulté de ce genre de discussion réside dans l’évaluation des augmentations budgétaires nécessaires. En effet, même si on arrive à trouver un financement centralisé, les augmentations budgétaires correspondront-elles aux besoins ? Se retrouvera-t-on dans la situation de la base de données MEDLINE de la NLM, qui, bien que généreusement dotée, doit, pour des raisons budgétaires, se contenter d’un contenu limité aux données de base. Il ne faut pas oublier non plus que MEDLINE ne couvre pas la moitié de l’information biomédicale, sans parler de l’IST dans son ensemble. En fait, sommes-nous en droit d’attendre qu’un seul organisme ou des administrations centrales financent un tel service alors que l’argent public est attendu ailleurs et que, pour le moment, l’édition dispose de formes commerciales de financement parfaitement saines et tout du moins raisonnablement efficaces ?

De tels propos pourraient être ressentis comme négatifs, mais ils ne le sont pas totalement. Le mouvement du libre accès n’en est qu’à ses débuts et aujourd’hui il se situe à l’extrême opposé du modèle de l’édition commerciale. Alors que les partisans du libre accès veulent remplacer complètement le système, il faut plutôt s’attendre à des compromis qui mèneront à une évolution des services d’information actuels qui permettra de tirer meilleur parti des technologies dont nous disposons.

Il est vrai que la tentation de placer son article sur un support où il sera accessible à toutes sortes de moteurs de recherche et de liens est très grande. Et ce besoin contemporain d’être inclus librement dans le grand réservoir de l’information scientifique pourrait bien changer le monde actuel de l’édition. L’établissement de liens entre les données et l’information est en passe de devenir la norme comme l’a montré Les Grivell lors de sa présentation d’E-BioSci ; il va donc falloir élargir la notion du libre accès telle qu’elle est aujourd’hui afin d’envisager la création de liens transparents et nécessaires entre les différents blocs d’informations.

Tous ces problèmes devraient donner matière à réflexion aux éditeurs d’aujourd’hui et cela ne fait aucun doute que de nombreuses maisons d’édition vont maintenant se pencher avec attention sur la question du libre accès. Les questions fondamentales auxquelles les éditeurs doivent répondre sont les suivantes : A-t-on besoin des éditeurs ? Quelle est la valeur ajoutée par les éditeurs ? Cette valeur ajoutée justifie-t-elle les prix qu’ils font payer ?

La première réponse a été (et reste) que les éditeurs garantissent l’archivage, l’indexation, les liens et un certain niveau de contrôle qualité, ce qui permet d’accéder plus facilement aux publications, de leur conférer un certain niveau de notoriété et de les archiver de manière adéquate au sein d’infrastructures d’information de plus en plus grandes et de plus en plus complexes.

Pieter Bolman d’Elsevier a mis le doigt sur le problème économique fondamental des éditeurs quand il a dit que les éditeurs devaient faire face à la fois à une diminution annuelle généralisée des abonnements de 4 %, à une augmentation de 4 % des volumes d’informations et à un taux d’inflation de 4 %. Ce qui correspond à un taux annuel stable de 12 % depuis quelques années. Quoiqu’il en soit, les éditeurs sont conscients que les prix ont atteint un plafond et ils recherchent donc une meilleure rentabilité. Sally Morris de l’ALPSP a clairement démontré que l’éditeur jouait un rôle essentiel dans le processus d’information. Cependant pour une grande partie de l’auditoire, il était clair que l’industrie de l’édition n’était plus ’à la page’.

Essentiellement, si une certaine passion s’est exprimée au cours de ce séminaire, celle-ci tenait à l’impression que des `barrières artificielles` empêchaient les avancées, notamment de la part des éditeurs qui commercialisent l’information plutôt que celle-ci soit accessible sans entrave. Le simple fait que les éditeurs soient « propriétaires » de l’information n’est pas en soit un obstacle à son utilisation et peu de propriétaires sont enclins à céder gratuitement ce qu’ils possèdent. Cependant, il ne faut pas oublier que le chercheur cède son article sans contrepartie financière et c’est sur ce point que nous assiterons aux premierx changements. De nombreux éditeurs permettent déjà aux auteurs de stocker leurs articles pour le libre accès (cf. le rapport antérieur). De nombreuses agences de financement refusent maintenant que les auteurs cèdent leur droit d’auteur à un éditeur (bien que la plupart des éditeurs le demandent, cette demande est de moins en moins écoutée). Certains éditeurs (IOS Press, l’éditeur de ces comptes-rendus par exemple) permettent aux auteurs de conserver leur droit d’auteur à condition d’autoriser l’éditeur à publier les articles en question dans un format défini par l’éditeur.

Ces démarches pourraient rendre le pouvoir d’autoriser ou d’interdire l’utilisation de l’information aux auteurs. Même si c’était le cas, le fait que les auteurs puissent donner leurs articles gratuitement ne veut pas dire qu’ils le feront. Il est clair que dans d’autres industries des connaissances, dès qu’une idée peut être monnayable, son auteur souhaite en général tirer profit de son exploitation. La révolution des biotechnologies a permis à de nombreux chercheurs de revendiquer des droits de propriété intellectuelle (et des redevances) sur des techniques de base, et même sur des idées. Alors qu’aujourd’hui les auteurs peuvent se permettre de critiquer les éditeurs qui ne permettent pas les liens et autres utilisations de « leurs » informations, il sera intéressant de voir quelles seront les restrictions que ces mêmes auteurs appliqueront à leurs propres données dans tout futur système en libre accès.

Les questions d’évaluation et d’authentification ont également été débattues. Bon nombre des membres de la communauté scientifique estiment que le marché pourrait se charger de ces tâches. Ils pensent que l’autorégulation est un facteur de contrôle important et qu’elle est de loin la moins coûteuse. Toutefois, ce n’est pas simplement une question d’argent. Comme pour l’accès et l’archivage, il va falloir établir des normes et les observer. De plus, les revues bénéficient de statuts différents et il y a beaucoup à gagner en publiant dans une revue prestigieuse sans parler du fait qu’il est toujours plus facile de faire endosser à la revue la responsabilité en ce qui concerne la valeur. Ces différentes étapes n’ont pas été abordées au cours du séminaire. Cela était peut-être prématuré dans le cadre d’une telle rencontre mais il faudra les traiter avant que le libre accès ne commence à remettre en cause l’ordre établi.

Le jour où le mouvement du libre accès trouvera, s’il y arrive, des solutions à ces questions, il est fort probable qu’elles ne fassent que refléter la situation actuelle. La science a besoin de standards et de normes. Les lecteurs ne veulent pas avoir à vérifier les données et les scénarios ; c’est aux éditeurs de le faire pour eux. De plus, bien que les techniques d’interrogation permettent de retrouver des articles pertinents dans une énorme base de données, il n’en reste pas moins qu’on éprouve un certain plaisir et une grande satisfaction à tomber sur un article pertinent en feuilletant un fascicule de revue au hasard. La revue a survécu au fil des ans et il se pourrait bien que l’environnement du libre accès se voie dans l’obligation de reprendre certains aspects tels qu’ils ont évolué dans les services actuels (par exemple, deux mois après le séminaire, l’OAI, annonce une étape vers la commande d’articles mis en ligne avec la mise en place de collections spécifiques d’articles en libre accès dans le domaine de la physique).

Stevan Harnard est probablement le promoteur du libre accès le plus virulent et le plus connu. Il s’est donné le temps de contrer clairement certaines déclarations que lui ont attribué à tort ses opposants et les autres, et il a défendu la cause du libre accès. Il a souligné qu’il n’était pas contre les éditeurs en tant que tels ; d’ailleurs, il publie bon nombre de ses propres articles dans des revues commerciales. Toutefois, il pense que les éditeurs pourraient faire davantage avec les articles qu’ils reçoivent, ce qui leur permettrait d’améliorer leur position sur le marché et ce faisant de justifier les prix qu’ils demandent. Les éditeurs pourraient certainement améliorer un point qu’il leur reproche, à savoir la lenteur et l’inefficacité du système actuel. L’auto-archivage permettrait de diminuer considérablement les délais de publication : les 12 mois actuels qu’il faut à un article pour atteindre le marché pourraient ainsi se réduire à quelques semaines, voire quelques jours.

Un autre point important est que les chercheurs doivent publier pour survivre. La visibilité d’un article augmente considérablement quand ce dernier n’est plus soumis aux restrictions que les éditeurs commerciaux placent sur leur archives. Il faut pouvoir disposer de liens interactifs. Globalement, Stevan Harnad estime que l’auto-archivage et le libre accès permettraient d’augmenter de 300 % l’impact d’un article et pour lui, l’impact et la visibilité sont les objectifs de la publication.

Stevan Harnard a insisté sur le fait qu’il pensait que l’édition va devoir évoluer et que cela était inévitable. Les outils (électroniques et informatiques) dont disposent aujourd’hui les éditeurs et les auteurs ne sont pas les mêmes qu’il y a vingt ans. Il serait impensable de ne pas tenir compte dans l’environnement de l’IST des progrès réalisés dans les domaines de l’indexation, de l’identification, de l’accès et de l’interrogation La formule des abonnements, quoi qu’on en pense et quelle que soit la manière dont elle fonctionne, signifie que l’accès est réservé à ceux qui peuvent payer ; et cela va à l’encontre de la volonté des scientifiques qui souhaitent que `tout le monde` puisse lire leurs articles. Stevan Harnard a donc parfaitement raison d’insister pour que les immenses richesses en IST soient plus facilement accessibles dans leur ensemble.

Le libre accès pourrait-il alors devenir une technologie qui rende l’édition scientifique plus transparente ? Si tel était le cas, les éditeurs pourraient-ils s’en servir ? Aujourd’hui, il est plus qu’improbable que nous arrivions à remplacer le système commercial actuel par des services en libre accès.

David Prosser de SPARC a décrit la manière dont on pourrait utiliser le libre accès pour résoudre certains des problèmes actuels et il a énuméré la plupart des projets qui étudient actuellement certains aspects de ces problèmes. Il a souligné le fait que l’Internet est en train de faire sauter les verrous du système d’édition précédent et il rejoint Stevan Harnard quand revendique la maîtrise des processus d’information devrait revenir pour les producteurs de l’information scientifique plutôt qu’aux éditeurs. Il ne nous a pas présenté de scénarios idéals, confirmant ainsi que la plupart des expériences en cours ne se sont pas penchées sur les aspects juridiques et commerciaux de la production continue et à long terme d’un environnement en libre accès. Toutefois, il est convaincu que tout est en place pour que le libre accès gagne en force et en crédibilité dans les années à venir.

Peu d’intervenants ont estimé que le mouvement du libre accès arriverait à résoudre tous les problèmes informationnels et financiers du monde de l’édition scientifique et technique ; par contre, plusieurs d’entre eux pensent qu’il serait avantageux de combiner plusieurs aspects de l’ancien et du nouveau système ; plusieurs éditeurs sont d’ailleurs en train d’étudier comment adopter ou adapter certains principes du libre accès. A l’heure actuelle, il s’agit surtout de petites maisons d’édition axées sur les technologies et ce ne sont pas elles qui arriveront à faire en sorte que tout le monde de l’édition change de cap. Par contre, si on peut prouver que le libre accès peut améliorer les processus de dissémination de l’information et les rendre plus interactifs, alors tôt ou tard les grands acteurs de l’édition bougeront. C’est alors que nous verrons quels sont les coûts réels du libre accès. Comme on l’a vu précédemment, alors que les universités peuvent `libérer` les espaces serveurs et du personnel nécessaire à un tel projet, une entreprise commerciale doit trouver les fonds pour financer du matériel informatique et du personnel. Geoffrey Bilder d’Ingenta, une entreprise qui a déjà mis en place un service destiné à aider les (petits) éditeurs à rendre leurs documents conformes à l’OAI, a clairement dit que leur principal problème était de trouver les moyens de financer leurs services, peut-être par le biais du contrôle d’accès.

BioMed Central a aussi adopté les principes du libre accès, mais en tant qu’entreprise commerciale il lui faut recouvrer ses coûts. Jan Velterop a été parfaitement honnête lorsqu’il a expliqué que l’entreprise ne pouvait pas encore évaluer les sommes nécessaires à son fonctionnement mais que tout d’abord on cherchera à recouvrir les frais d’évaluation en faisant payer des frais administratifs aux auteurs. Pour que le service soit financièrement viable, il faudra que BioMed Central trouve le juste équilibre entre les auteurs « pauvres » incapables de payer ces frais et ceux qui le peuvent tout en évitant de se voir accusé de n’accepter que les articles « pouvant se payer le droit d’entrée ».

BioMed Central s’interroge sur la manière dont ils pourraient affiner leur politique : par exemple, faut-il faire payer à tous les auteurs un forfait modique lors de la soumission de leurs articles ou bien reporter les coûts sur les auteurs dont les articles ont été acceptés ? Les auteurs défavorisés pourraient également être exonérés, ce qui serait particulièrement favorable aux pays en développement. Cette solution n’est pas aussi simple que cela car, d’une manière comme d’une autre, l’entreprise devra couvrir ses coûts globaux et donc devra faire payer plus à ceux qui peuvent se le permettre.

Ce n’est pas la première fois que ces questions sont soulevées. Il faut donc s’attendre aux mêmes arguments et contre-arguments dans les mois qui viennent mais avec cette fois-ci au cœur des débats la question du modèle du libre accès plutôt que celle du « qui doit payer quoi ». Globalement, il est peu probable que le paiement à la page ou à la soumission arrive à couvrir tous les frais de l’édition scientifique et technique. Tout en reconnaissant que les calculs sur lesquels reposent les chiffres donnés sont sujet à controverse, Pieter Bolman, quant à lui, est arrivé à une somme d’environ 10 000 dollars US la page pour des revues très concurrentielles comme Nature.

De manière récurrente ressurgissent la taille et l’organisation actuelles du monde de l’édition. Certes, cela représente un obstacle important pour ceux qui veulent le changement sans vouloir dire pour autant que statu quo lui-même soit complètement sans danger. Paradoxalement, la puissance du web pourrait bien jouer en faveur de la survie de petites revues plutôt méconnues couvrant des domaines scientifiques spécifiques. En général, ces revues ne sont pas faciles à localiser (en sciences biomédicales par exemple, si une revue n’est pas analysée dans une base de données secondaires telle que MEDLINE, Excerpta Medica ou autres, elle passera inaperçue). Toutefois, ces revues arrivent à survivre car de petits groupes de chercheurs leur sont fidèles ; ils aiment publier dans ces revues et y lire les articles de leurs pairs. Une fois de plus, le libre accès peut faire avancer les choses : une recherche sur le web permettra de localiser un article de ces revues où qu’elles soient, ce qui permettra à ces revues de bénéficier d’une plus grande visibilité.

Par contre, si le libre accès veut pouvoir attirer dans son camp les partenaires commerciaux « propriétaires » de la majeur partie de la littérature scientifique de premier ordre, il va falloir qu’il se dote de meilleures structures. La question de savoir comment rendre l’environnement de l’IST plus accessible à un plus grand nombre a fait l’objet de peu de discussions que ce soit au cours ou en dehors du séminaire. Le projet FIGARO par exemple doit bien développer une infrastructure d’édition électronique destinée à être utilisée par les éditeurs. Mais le public ciblé est celui des petits éditeurs scientifiques et/ou universitaires qui pour la plupart ne jouent qu’un rôle mineur dans leur domaine, sans parler de celui de l’IST en général. Le marché veut accéder aux documents stockés dans les fichiers des grandes maisons d’édition et ce sont ces dernières qui sont le nerf de la guerre et non pas ces quelques petits éditeurs, aussi bien intentionnés qu’ils soient.

La session sur les pays en développement a montré que le libre accès offrait de nombreuses possibilités aux pays défavorisés. Barbara Aronson de l’OMS à tout d’abord montré à quel point le nombre de pays en développement pouvant se permettre d’acheter des revues scientifiques était faible. Avec quelque 120 pays ayant un PIB inférieur à 3000 dollars US et seulement 20 pays dont le PIB atteint 25 000 dollars, il n’est pas étonnant que l’acquisition de revues scientifiques ne soit pas une priorité. Cependant, mêmes les pays pauvres font de la recherche et cette recherche est souvent vitale pour le bien-être du reste du monde.

Le libre accès aux revues ne pourra pas répondre à tous les besoins mais c’est déjà un pas dans la bonne direction ; Barbara Aronson a indiqué que certains projets auxquels participaient de grands éditeurs étudiaient la question. Mais il faut faire plus : Barbara Kirsop de Bioline International, dans son intervention sur le problème croissant du financement, a souligné que, le coût des revues scientifiques pourrait bien avoir augmenté de 1 800 % à l’horizon 2020. Son organisme a pris les devants en proposant aux pays en développement de mettre leurs revues en ligne. Il est évident que le monde occidental sera sensibilisé aux riches gisements en IST que recèlent les pays en développement s’il peut accéder à l’IST que ces pays produisent et cela pourrait aboutir à des actions concertées pour faire en sorte que l’information soit accessible à tous ceux qui en ont besoin.

Le libre accès dépend des technologies et pour que le libre accès puisse devenir un outil largement utilisé, il est essentiel de se mettre d’accord sur l’utilisation et le développement de ces technologies. On pourrait tout d’abord privilégier l’obtention d’exemplaires lisibles d’articles scientifiques, mais il est évident que les progrès vont permettre une meilleure indexation des articles et de meilleurs liens entre ces articles. Le projet E-BioSci est un exemple de la manière dont les liens doivent évoluer. Ce projet est un des derniers en date des projets financés par la CEE pour la création de liens entre la littérature et des bases de donnés factuelles. E-BioSci est l’héritier du projet ADLIB (Advanced Database Linking in Biotechnology) sur lequel l’INIST et les grands éditeurs détenteurs de la littérature en biotechnologie ont étroitement collaboré. Ce type de projet souligne une fois de plus la nécessité pour les parties prenantes de collaborer au lieu de se faire concurrence.

Le libre accès concerne principalement l’édition électronique. Il est clair que de nos jours la grande majorité des articles scientifiques sont disponibles en format électronique. Et cette situation ouvre de nouveaux horizons. Laurent Guillopé du CNRS a montré la puissance des systèmes informatiques dans le traitement et la recherche de l’IST quand il a décrit les actions de retro-numérisation et de mise à disposition du patrimoine des mathématiques ainsi que les mesures prises pour produire des catalogues communs, des catalogues de thèses et autres outils d’aide à la recherche d’information. Mais de telles mesures ne sauraient changer à elles seules le paysage du libre accès ; elles ne feront qu’augmenter le volume d’informations disponibles.

L’archivage des documents va demander beaucoup de réflexion et d’investissement, quel qu’en soit l’environnement. Dans sa présentation, Daniel Charnay a montré comment le Centre pour la communication scientifique directe (CCSD) du CNRS avait commencé à aborder ces problèmes.

Il est certain que les débats sur le libre accès attirent l’attention sur la nécessité de modifier le monde actuel de l’édition scientifique. Un nouvel environnement d’édition dans lequel se côtoieraient des ressources d’informations primaires « gratuites » et « payantes » pourrait bien voir le jour. Mais il va falloir encore de nombreuses réflexions et discussions, en particulier en ce qui concerne les principes de base de la communication. Pour certains participants, Elmar Mittler du Groupe de Francfort à mis le doigt sur un point essentiel quand il a dit qu’il faudrait peut-être différencier clairement « communication » et « publication ». Il reste à voir si le libre accès sera en mesure de répondre à l’une et l’autre de ces nécessités.

[1] Il aurait été intéressant d’entendre le point de vue des administrateurs universitaires qui doivent trouver des fonds pour entretenir leurs serveurs en libre accès. Globalement, bien qu’il soit novateur, le libre accès n’en est encore qu’au stade artisanal. Sa diversité pourrait bien le sauver, comme cela a été le cas de l’Internet, et il se pourrait qu’il arrive à survivre sans financements centralisés. Mais cela reste à prouver. Il faudrait aussi consacrer une autre rencontre aux chercheurs eux-mêmes, car ce sont en premier lieu les utilisateurs qui devront se former à ces nouvelles techniques et qui devront les adopter. Pour les auteurs, la filière de l’édition actuelle est très simple. Le libre accès pourrait se révéler plus difficile à maîtriser et pourrait même handicaper ceux qui n’ont ni les moyens ni le savoir faire nécessaires pour présenter leurs données de manière attrayante.

Pour consulter le programme : cliquez ici

En poursuivant votre navigation, sans modifier vos paramètres, vous acceptez l'utilisation et le dépôt de cookies destinés à mesurer la fréquentation du site grâce au logiciel Matomo. Pour plus d'informations, gérer ou modifier les paramètres, vous pouvez vous rendre sur notre page de politique de confidentialité.
OK
Modifier les paramètres