OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 [Infographie] 10 ans de Creative Commons http://owni.fr/2012/12/14/infographie%c2%a010-ans-de-creative-commons/ http://owni.fr/2012/12/14/infographie%c2%a010-ans-de-creative-commons/#comments Fri, 14 Dec 2012 17:30:44 +0000 Sabine Blanc http://owni.fr/?p=127405 Des early adopters aux géants du web, Owni vous retrace en une infographie 10 ans d’histoire de Creative Commons : ou comment un pari que d’aucuns jugeait pascalien a été remporté haut la main : proposer une alternative légale assouplissant la propriété intellectuelle pour favoriser le partage à l’heure du numérique.

Depuis la publication du premier set de licences en décembre 2002, cette généreuse et utile idée a fait son chemin sur les cinq continents, dépassant son cœur initial de cible, la culture, pour s’appliquer à d’autres domaines comme la science ou l’éducation.

Des dix années d’archives que nous avons parcourues, nous avons bien sûr retenu les étapes incontournables qui ont eu une large répercussion médiatique. Elles témoignent de l’évolution interne de l’organisation lancée par le juriste Lawrence Lessig mais aussi de sa réception et de la façon dont le public, qu’il s’agisse du milieu artistique, politique, médiatique, scientifique, etc, s’est emparé de l’outil. Pour en arriver là : plus de 100 affiliations travaillant dans plus de 70 juridictions.et 500 millions de contenus sous CC en 2011.


Cliquez sur les items pour avoir plus d’informations.


Design de l’infographie : Cédric Audinot et Loguy
Code : Julien Kirch
OWNI fêtera les dix ans de partage avec les Creative Commons à la Gaîté Lyrique ce samedi 15 décembre à partir de 14h.

]]>
http://owni.fr/2012/12/14/infographie%c2%a010-ans-de-creative-commons/feed/ 0
[Docu Video] Remix Manifesto : L’artiste vaut plus qu’un © http://owni.fr/2010/11/12/lartiste-vaut-plus-quun-copyright/ http://owni.fr/2010/11/12/lartiste-vaut-plus-quun-copyright/#comments Fri, 12 Nov 2010 10:50:03 +0000 Lara Beswick http://owni.fr/?p=27868 RIP : Remix Manifesto est un documentaire réalisé par Brett Gaylor avec la collaboration de personnalités tel Lawrence Lessig, Gilberto Gil, Girl Talk… nous vous le recommandons chaudement.

La musique, écrite et composée par des artistes dans le but  de s’exprimer, de partager un sentiment, un message, une sensation, a été recouverte par une notion ambiguë qui porte le nom de  copyright pour les anglo-saxons mais qui plus généralement, la notion de propriété intellectuelle. Inventé pour protéger les fruits de la pensée, le concept a rapidement été mobilisé par des commerciaux pour légitimer des pratiques libérales et embrigader les créateurs.

Qu’est ce que la création d’abord? Nous, êtres humains, nous inspirons tous les jours de ce qui nous entoure pour remixer, compiler des bribes de vie et en faire de nouvelles créations.

Musicalement parlant, les combinaisons harmoniques sont infinies, certes. Pourtant les mêmes accords sont toujours utilisés. Douze notes remixées encore et encore.

En cherchant bien, une création originale n’existe pas. La seule authenticité qui existe sont des éléments déjà existants ré-agencés de manière plus ou moins subtile.

La position de l’artiste devient alors délicate, en effet, il a besoin de vivre, de se loger, de se nourrir, pour pouvoir créer. Mais de l’autre côté, il a besoin de créer pour se sentir vivre. Les créateurs sont souvent enchantés de voir leurs œuvres appréciées, utilisées et partagées et ce, même à titre gratuit. Il est très important pour beaucoup d’artistes de devenir source d’inspiration et de “nouvelles créations” et c’est en ce sens qu’ils ont abandonné, à tort ou à raison la gestion de leurs droits à des professionnels du “Money Making”.

Le sujet fait débat depuis un moment mais Internet a remis la question de savoir si la notion de propriété intellectuelle sert ou dessert nos cultures sur le devant de la scène.

Depuis le procès historique de Napster, de nouvelles conceptions ont émergé pour rendre la notion de copyright plus équitable. L’interdiction de diffusion que subissent certaines œuvres dessert souvent la notoriété d’un artiste. Pour aller encore plus loin, la culture accessible à tous est une notion éthique importante que personne ne peut négliger. Brett Gaylor montre, dans la vidéo qui suit, comment le copyright peut ne pas rendre service à la diffusion efficace de notre culture.

Ce débat est complexe et délicat. Je prends moi-même un certain plaisir à l’animer et le provoquer mais je ne pourrais certainement pas me vanter d’en maîtriser tous les aspects. Quoiqu’il en soit, cette remise en question a pour avantage de nous obliger à nous instruire avant de pouvoir en parler et cette petite bombe de documentaire comporte beaucoup d’informations indispensables à l’évocation du sujet.

Money money mais à quel prix!

Bon voyage:

Cette vidéo a été découverte par le site sound-vibz

Crédits photos CC flickr: e-magic; TangYauHoong

]]>
http://owni.fr/2010/11/12/lartiste-vaut-plus-quun-copyright/feed/ 1
Lawrence Lessig: plaidoyer pour un droit de citation élargi au remix http://owni.fr/2010/10/19/lawrence-lessig-plaidoyer-pour-un-droit-de-citation-elargi-au-remix/ http://owni.fr/2010/10/19/lawrence-lessig-plaidoyer-pour-un-droit-de-citation-elargi-au-remix/#comments Tue, 19 Oct 2010 06:25:24 +0000 Michèle Battisti http://owni.fr/?p=32051

Certes, le discours  de Lawrence Lessig doit être replacé dans un contexte juridique anglo-saxon et  il est vrai que l’acception de la citation au titre du fair use par le copyright, plus large que la citation du droit continental, peut représenter quelquefois un extrait d’œuvre, ce que la citation, exception au droit d’auteur, ne permet pas du tout en France. Mais il n’en reste pas moins que la citation est intimement liée à la liberté d’expression des deux côtés de l’Atlantique et que les propos tenus récemment par Lawrence Lessig, juriste américain à l’origine des licences Creative Commons, qui milite pour une application du fair use aux œuvres audiovisuelles, ont à nouveau attiré mon attention

On vient d’apprendrequ’invité à faire partie d’un jury dans un concours de vidéos réalisées à partir de la technique du remix, Lawrence Lessig avait utilisé cette opportunité pour présenter ses idées. Il avait ainsi souligné qu’utiliser, pour la remixer à d’autres, une œuvre encore protégée  par le droit d’auteur devrait se faire sans autorisation, même pour d’autres types d’œuvres que le texte, puisque cet usage qui s’apparente à la citation satisfait aux exigences du fair use du copyright américain.

Et de regretter, par exemple, que Viacom qui, bien que reconnaissant l’utilité du fair use, exige régulièrement que YouTube retire des copies prétendument  piratées de ses émissions de télévision, même lorsqu’il s’agit de vidéos où l’uploader a “remixé” le contenu original.

Mais, sorti de son contexte, le discours de Lawrence Lessig tenu à cette occasion, devenu ainsi une apologie du piratage, a suscité un tollé.

Les quatre points de son argumentaire

Pour répondre à ses détracteurs, Lawrence Lessig a rappelé que le remix était une création à part entière, qui va au-delà du simple assemblage d’une série d’œuvres. Il a également souligné l’apport intellectuel de ce type de création et la nécessité de fixer, tout comme pour l’écrit, des règles pour cette forme d’expression appelée à connaître un grand essor, notamment auprès des jeunes générations.

Mais ces règles ne peuvent pas être les mêmes que celles qui sont utilisées par les cinéastes professionnels qui doivent obtenir l’autorisation expresse des auteurs d’œuvres qu’ils entendent utiliser . Selon Lawrence Lessig, lorsqu’il s’agit de travaux d’amateurs, il conviendrait d’appliquer les règles de la citation littéraire autorisant la reproduction de l’œuvre sans autorisation expresse, mais en exigeant que l’on cite les noms des auteurs des œuvres utilisées.

Lawrence Lessig a ajouté que l’auteur du remix  est un auteur à part entière et qu’il était anormal que les plates-formes qui hébergent ces œuvres exigent du remixeur qu’il leur cède tous ses droits. Le droit d’auteur s’applique de la même façon quelles que soient la nature de l’œuvre ou les modalités de sa création.

Intéressante aussi, cette ultime remarque de Lawrence Lessig qui, tout en soulignant que le remixeur dispose de tous les droits sur l’œuvre qu’il a créée et qu’il a liberté d’en définir les règles de sa diffusion, qu’il serait opportun que celui-ci diffuse le résultat de son travail, en faisant bénéficier les tiers des mêmes libertés dont il a pu bénéficier pour créer son œuvre, en autorisant une libre utilisation  de celle-ci à des fins non commerciales.

En France

Il est vrai que le droit de citation permet en France d’insérer de très brefs extraits d’œuvres  dans une œuvre seconde et que, contrairement à l’image fixe, la reprise d’œuvres audiovisuelles est admise. Mais  extrêmement courtes, elles doivent être insérées dans un œuvre seconde et « être justifiées par le caractère critique, polémique, pédagogique, scientifique ou d’information de l’oeuvre à laquelle elles sont incorporées » (art. L 122-5 du code de la propriété intellectuelle). Elles  ne seront de ce fait pas applicables à ce cadre trop large qui, en outre, sera  jugé souvent esthétique ou ludique.

La citation élargie“  que l’Interassociation archives bibliothèques documentation … (IABD) avait appelé de ses vœux lors de l’examen du projet de loi Dadvsi en 2005, aurait permis, comme le proposait la directive européenne elle-même, d’insérer dans le droit français une exception permettant de reprendre dans un cadre non commercial des extraits de documents à conformément aux bons usages et la mesure justifiée par le but poursuivi,  remplaçant ainsi le concept de brièveté par celui de proportionnalité, bien plus adaptée à la donne numérique. Mais envisagée qu’à des fins de critique ou de revue d’information, elle ne s’applique pas à ce cadre non plus.

C’était l’un des éléments, parmi bien d’autres, que j’avais souligné dans un dossier sur le  droit d’auteur bousculé par les internautes créateurs de contenus.

Billet initialement publié sur Paralipomènes

Image CC Flickr One_day_in_my_garden et Ivan Zuber

]]>
http://owni.fr/2010/10/19/lawrence-lessig-plaidoyer-pour-un-droit-de-citation-elargi-au-remix/feed/ 3
Des codeurs sur les bancs de l’Assemblée nationale ? http://owni.fr/2010/10/08/des-codeurs-sur-les-bancs-de-lassemblee-nationale/ http://owni.fr/2010/10/08/des-codeurs-sur-les-bancs-de-lassemblee-nationale/#comments Fri, 08 Oct 2010 07:47:01 +0000 Sabine Blanc http://owni.fr/?p=23153

Récemment le développeur et blogueur Clay Johnson a proposé de mettre des codeurs au Congrès, arguments à l’appui. En France aussi sa proposition trouve un écho, puisqu’à notre connaissance, seul Yves Cochet est classé comme informaticien à l’Assemblée nationale ; curieusement, on a du mal à l’imaginer codant régulièrement, en vrai geek ; si on élargit aux ingénieurs, on tombe sur le mirobolant chiffre de vingt, sachant que leur domaine d’application n’est pas forcément lié au numérique (tableau ci-dessous). Que le niveau de connaissance des députés en la matière soit loin d’être satisfaisant ne fait pas de doutes pour les acteurs du web français et même de la politique interrogés  (Cf. ce mémorable micro-trottoir de Bakchich sur le peer-to-peer). De là à régler ça en envoyant des codeurs sur les bancs, c’est un peu plus complexe et amène à  dépasser le cadre de la simple Assemblée.

Les députés par catégorie socio-professionnelle

Benoit Boissinot, membre du collectif Regards citoyens, se dit “plutôt d’accord avec Clay Johnson mais cela ne se limite pas à la politique : on manque d’informaticiens aux postes de décision qui aient la connaissance des outils et de leurs possibilités pour prendre les décisions optimales et améliorer le fonctionnement. À Regards citoyens, nous voyons bien les lacunes à l’Assemblée nationale.” De fait, on ira plutôt voir leur plate-forme NosDeputes.fr pour se renseigner sur l’activité des députés que sur le site de l’Assemblée nationale. Dans ce contexte de demande de transparence et de responsabilisation (accountability), on peut comprendre que la vénérable institution n’ait pas trop intérêt à s’ouvrir aux développeurs.

Tristan Nitot, président de la fondation Mozilla Europe, juge les arguments de Clay Johnson un peu “tirés par les cheveux, sa solution n’est pas réaliste, mais dans le fond il soulève un vrai problème : la technologie numérique change énormément de chose dans la communication des institutions et dans l’économie. Or il y a très peu de natifs du numérique aux commandes politiques. Ce ne serait pas grave s’ils n’étaient amenés à légiférer et être confrontés au lobbying.”

Un point de vue que rejoint Bernard Benhamou, délégué aux usages de l’Internet, pour qui les technologies influencent ou vont influencer toute l’économie : elles sont une problématique transversale dont l’enjeu est énorme, créer un secteur européen dans le domaine des services. “Faire rentrer des développeurs dans une assemblée serait une rustine, il faut irriguer tout le politique, en intégrant les spécialistes et en améliorant la culture des élus.” Et aux politiques d’impulser la suite, en particulier au niveau de l’UE. Irriguer le politique, “Il faudra des années, vingt ans, le temps que la classe politique change, soupire Tristan Nitot. Là, on a déjà Nathalie Kosciuzco-Morizet qui est jeune, avec un profil d’ingénieur.

Le texte de Clay Johnson et la réponse d’Andrea Di Maio pose aussi de manière générale la question du rôle des experts : suffit-il d’être bien entouré pour juger en connaissance de cause ? “Des conseillers techniques peuvent se montrer très compétents, estime Tristan Nitot, celui de Jean-Paul Huchon a une bonne influence par exemple. Mais être conseillé, c’est une expérience de seconde main, c’est différent d’une compréhension intégrée.

Ce ne sont pas des développeurs qu’il faut, mais des gens qui comprennent le code et savent ce que c’est. C’est assez différent,

estime Jean-Michel Planche, président-fondateur de Witbe, éditeur de logiciels. Réapprendre à mettre le nez sous le capot, à l’heure où les technologies s’effacent de plus en plus, avec comme emblème actuel l’iPad.

Comment ça marche ?

Député d’Eure-et-Loir, secrétaire nationale UMP en charge Médias et Numérique, Laure de la Raudière ne rejoint pas non plus Clay Johnson : “Le métier n’est pas forcément ce qui compte le plus, en revanche, il faut que les politiques s’investissent de plus en plus sur le sujet du numérique, car les enjeux économiques et de société liés au numérique sont majeurs.” Si de par sa formation d’ingénieur Télécom, elle s’y est intéressée plus spontanément et qu’elle y voit un atout pour mieux comprendre, Laure de la Raudière souligne que la connaissance profonde des dossiers passe par des auditions des grands acteurs –opérateurs et fournisseurs de contenus-, d’entrepreneurs du web que d’experts ou de représentants de la société civile -associations comme le GESTE, la Quadrature du Net, UFC-Que choisir, etc-, complétées de lectures personnelles. Elle estime que les connaissances techniques peuvent s’acquérir et qu’en recoupant ses informations, il est possible d’arriver à déterminer quelle position sert le plus l’intérêt général (Cf. la Hadopi, Loppsi…, ndlr). Tout en expliquant, ce qui peut sembler contradictoire, que si les ingénieurs sont si peu présents en politique, c’est que le politique doit en priorité “convaincre, de vendre ses idées”, alors que le raisonnement de l’ingénieur consiste plutôt à “améliorer un process, à être toujours dans le doute.” (sic)

La député pointe également que le nombre de parlementaires spécialistes du domaine de l’industrie, aussi primordial pour l’économie, ne dépasse pas non plus la poignée. Et selon elle de plus en plus de députés s’intéressent au numérique, sujet qui occupe davantage l’actualité politique depuis 2007. Mais de reconnaître qu’elle aimerait qu’il y en ait davantage qui s’investissent et qu’il existe “une marche technique haute à franchir avec ce sujet, et que l’évolution rapide de la technologie oblige à mettre constamment à jour ses savoirs.” On en déduira ce que l’on veut…

Le code informatique est aussi régulateur

Si Benoit Boissinot estime que l’Assemblé nationale devrait, de façon générale, s’ouvrir plus à d’autres professions, car son mode de recrutement manque de diversité, on est en droit de distinguer des degrés d’importance, tant les développeurs ont une influence croissante sur la société. Boucher et codeur, pas même combat. Dans son livre Les Trois écritures, l’historienne Clarisse Herrenschmidt inscrit le code comme troisième grande écriture de l’humanité, après le langage et le nombre.

On en vient aussi inévitablement à évoquer le célèbre “Le code fait la loi” (“Code is law”) de Lawrence Lessig, écrit en 2000 mais plus que jamais d’actualité. Pour ceux qui ne le connaissent pas, voici un résumé : nous sommes à l’âge du cyberspace, où s’opère désormais une partie de la régulation.

Ce régulateur, c’est le code : le logiciel et le matériel qui font du cyberespace ce qu’il est

posait l’auteur. Avec ce que cela implique en termes de libertés. Si l’architecture du Net est initialement caractérisée par l’irrégulabilité, cela n’est pas garanti. Et de fait, il observait déjà une évolution dans le sens du contrôle, “sans mandat du gouvernement“. Par exemple, “le fait que l’architecture de certification qui se construit respecte ou non la vie privée dépend des choix de ceux qui codent. Leurs choix dépendent des incitations qu’ils reçoivent. S’il n’existe aucune incitation à protéger la vie privée – si la demande n’existe pas sur le marché, et que la loi est muette – alors le code ne le fera pas.” Le code est donc porteur de valeurs et il s’agit pour les citoyens de rester vigilants dessus. Ou pas. Lawrence Lessig a bien sûr fait son choix :

Nous devrions examiner l’architecture du cyberespace de la même manière que nous examinons le fonctionnement de nos institutions.

Si, comme le rapporte Luke Fretwell, “Howard Dierking, chargé de programmation chez Microsoft, dans  Engineering Good Government suggère que ceux qui ont conçu la Constitution étaient en fait les premiers programmeurs patriotes de la nation américaine“, les programmeurs sont donc en quelque sorte de nouveaux constitutionnalistes.

Dès lors, peser politiquement au sens général du terme ne passe pas forcément par faire de la politique comme on l’entend traditionnellement.Je ne fais pas de politique, explique ainsi Tristan Nitot, faire du code, c’est déjà travailler pour avoir de l’influence et du pouvoir. Je préfère cette façon d’agir. À la fondation, nous diffusons du code incarnant nos valeurs.” Qui de fait, ne sont pas celle de Microsoft et de son Explorer…

Et cela implique donc de surveiller l’architecture du cyberspace. Là encore, faut-il connaître le code ? Bernard Benhamou propose trois pistes, former le régulateur, avoir une vraie réflexion sur l’impact des technologies et éduquer les citoyens. De là à ce que tout le monde apprenne à coder, il ne va pas jusque-là. Il constate que les choses s’améliorent : “Il y a dix ans, lorsque j’enseignais à l’ENA et que je disais que l’Internet allait devenir politique, les gens riaient : ‘on ne va pas s’occuper de cela, nous traitons de choses sérieuses.’ J’ai vu le changement depuis.” Ouf, on a eu peur. Nos élites se sont débouchés le nez.

Le dernier Mac, il roxe grave, j'ai des promos mais chut, ça reste entre nous.

S’inspirer de la mentalité hacker

La similitude entre les deux codes serait plus évidente pour un informaticien : “La loi modifie le code, cela nous semble plus évident et dans les deux cas il faut se montrer logique et cohérent” explique Benoit Boissinot. Après, on peut aussi arguer qu’il y a du code propre et sale dans les deux cas… Détaillant le fonctionnement de l’activité du député, il fait plus précisément le lien avec l’open source. Si code is law, l’inverse est aussi vrai, law is code donc elle se hacke également, au sens premier du terme, “bidouiller” :  “Il y a deux types de projets de loi : ceux déposés pour montrer que l’on est actif, qui ne sont pas destinés à passer et sont mal écrits. Et les lois qui modifient vraiment les codes. Comme dans l’open source, il est possible d’apporter des modifications, des patches. Fondamentalement, c’est très geek comme fonctionnement. Mais c’est spécifique à la France.” Jérémie Zimmermann, le porte-parole de La Quadrature du Net, souligne aussi cet aspect : “Plus que de programmeur, je parlerais de hacker, au sens de bidouilleur passionné qui font en sorte d’arranger les choses.

S’il voit aussi un atout à la mentalité des programmeurs, c’est leur capacité à naviguer dans ses systèmes complexes, “comme la finance ou les lois, qui sont de plus en plus compliqués, pour les découper en bout et les réparer.” Il souligne aussi que les hackers savent utiliser l’Internet pour coopérer à l’échelle mondiale, en particulier les développeurs de logiciels libres : ils vivent par l’entraide et le partage. Une mentalité qui ferait du bien à notre système malade de compétition. Mais est-ce réaliste de vouloir l’implémenter dans le système politique actuel ?… En même temps, par des chemins de traverse, sans demander la permission, La Quadrature du Net et autres Regards citoyens l’introduise.

Sur l’aptitude supposée des développeurs à écrire des lois avec rigueur, le point de vue de Clay Johnson, il faut le pondérer en prenant en compte les différences avec le système législatif américain nous a indiqué Benoit Boissinot. En effet, aux États-Unis les textes laissent une place beaucoup plus importante à la jurisprudence et sont plus longs alors que chez nous les possibilités d’interprétation sont plus réduite. Du coup, l’argument de concevoir des textes plus efficaces possède une portée moins grande. En même temps, quand on regarde le flou juridique de la Hadopi…

Les développeurs de bons communicants, lol

Un argument qui laisse en revanche plus dubitatif, c’est celui de la capacité des développeurs à bien communiquer. Il rejoint en cela Andrea Di Maio, qui indiquait sans ambages : “C’est assez risible. Les bons programmeurs sont souvent timide, centrés sur eux-mêmes, geeky.” Benoit Boissinot se montre pondéré : “C’est variable, certains programmeurs rock stars font très bien passer leur message.” Et de citer dans les bons communicants, “Julian Assange -même si il n’est plus un développeur, c’était un hacker dans sa jeunesse-, Chris Messina -maintenant évangéliste chez Google-, Brian Fitzpatrick et Ben Collins-Sussman, qui même s’ils ne sont pas liés à la politique, font des présentations chouettes, comme ‘How Open Source Projects Survive Poisonous People’, Appelbaum (projet Tor, et WikiLeaks) et en France, Jérémie Zimmerman se débrouille plutôt bien maintenant.” Mais il ne montre pas la même foi dans les capacités de communicant des dév que Clay Johnson : “Les développeurs communiquent plus sur leur passion, d’une façon qui n’est pas forcément intelligible pour le reste de la population.

Tristan Nitot abonde dans ce sens : “Nous avons beaucoup de bons développeurs chez Mozilla mais je ne pense pas que leur capacité à parler en public soit la première de leurs qualités.

Quel candidat ?

Luke Fretwell, dans un billet éloquemment intitulé “How developers can win Congress“, donne ses conseils pour que les candidatures de développeurs au Congrès ne se terminent pas en 404. Il suggère de trouver des leaders. En France, qui pourrait endosser ce costume ? Benoit Boissinot pense à des personnes “impliquées dans des associations, au courant des problématiques législatives : Regards Citoyens, l’April, La Quadrature du Net.”

Tristan Nitot bute d’abord sur la question : “C’est difficile d’être un bon développeur et un bon communiquant.” Finalement, Jean-Michel Planche, Jérémie Zimmermann et Benjamin Bayart “qui ont complètement intégré la dimension sociale de l’impact des logiciels” semblent être ces oiseaux rares. Et lui, il ne serait pas tenté ? Refus poli et argumenté, et ce n’est pas la première fois, pour les raisons expliquées plus haut. Mais il est bien conscient que le politique reste un levier central, sans avoir de solution miracle pour infléchir la donne.

Laure de la Raudière voit bien “un profil de dirigeant de PME innovante sur le web, qui a réussit, et qui aurait à cœur de défendre l’innovation”, sans citer de nom. Ce qui, quoi qu’en disent les zélateurs de la Silicon Valley, se trouve dans nos contrées.

Jérémie Zimmermann, souvent cité comme potentiel prétendant, a autant envie que Tristan de se présenter. Il évoque François Pellegrini, “un brillant chercheur, qui s’est battu sous Rocard pour contre les brevets” ainsi que Philippe Aigrin, à la fois développeur, entrepreneur et “philosophe politique.” Dans l’absolu, un développeur qui aurait su mener à terme un logiciel libre pourrait candidater : “Il faut avoir l’idée, la réaliser, être jugé par ses pairs.” Bref un bon préambule au parcours du combattant de la députation (en principe, si l’on n’envisage pas l’option godillot).

À lire aussi :

Just hack it, compte-rendu de la conférence de Jérémie Zimmerman et Benjamin Ooghe-Tabanou lors de Pas sages en Seine.

Le site de Regards citoyens ; La Quadrature du Net ; L’April ;

Clarisse Herrenschmidt, LES TROIS ÉCRITURES. Langue, nombre, code. Collection Bibliothèque des Sciences humaines, Gallimard, 29,00 euros.

Images CC Flickr yoyolabellut, Jonathan Assink et Ma Gali

Téléchargez le poster d’Elliot Lepers (CC)

]]>
http://owni.fr/2010/10/08/des-codeurs-sur-les-bancs-de-lassemblee-nationale/feed/ 9
Le code fait la loi ||(trad. française) http://owni.fr/2010/09/30/le-code-fait-la-loi-trad-francaise/ http://owni.fr/2010/09/30/le-code-fait-la-loi-trad-francaise/#comments Thu, 30 Sep 2010 09:39:47 +0000 aKa (Framasoft) http://owni.fr/?p=16568 Le 5 mars dernier, Tristan Nitot se pose la question suivante sur Identi.ca : « Je me demande s’il existe une version française de Code is Law, ce texte sublime de Lessig. »

Monsieur Nitot qui évoque un texte sublime de Monsieur Lessig… Mais que vouliez-vous que nos traducteurs de Framalang fassent, si ce n’est participer à modifier favorablement la réponse de départ étonnamment négative !

Écrit il y a plus de dix ans, cet article majeur a non seulement fort bien vieilli mais se serait même bonifié avec le temps et l’évolution actuelle du « cyberespace » où neutralité du Net et place prise par les Microsoft, Apple, Google et autres Facebook occupent plus que jamais les esprits.

Bonne lecture…

Le code fait loi – De la liberté dans le cyberespace

Code is Law – On Liberty in Cyberspace

Lawrence Lessig – janvier 2000 – Harvard Magazine
(Traduction Framalang : Barbidule, Siltaar, Goofy, Don Rico)

À chaque époque son institution de contrôle, sa menace pour les libertés. Nos Pères Fondateurs craignaient la puissance émergente du gouvernement fédéral ; la Constitution américaine fut écrite pour répondre à cette crainte. John Stuart Mill s’inquiétait du contrôle par les normes sociales dans l’Angleterre du 19e siècle ; il écrivit son livre De la Liberté en réaction à ce contrôle. Au 20e siècle, de nombreux progressistes se sont émus des injustices du marché. En réponse furent élaborés réformes du marché et filets de sécurité.

Nous sommes à l’âge du cyberespace. Il possède lui aussi son propre régulateur, qui lui aussi menace les libertés. Mais, qu’il s’agisse d’une autorisation qu’il nous concède ou d’une conquête qu’on lui arrache, nous sommes tellement obnubilés par l’idée que la liberté est intimement liée à celle de gouvernement que nous ne voyons pas la régulation qui s’opère dans ce nouvel espace, ni la menace qu’elle fait peser sur les libertés.

Ce régulateur, c’est le code : le logiciel et le matériel qui font du cyberespace ce qu’il est. Ce code, ou cette architecture, définit la manière dont nous vivons le cyberespace. Il détermine s’il est facile ou non de protéger sa vie privée, ou de censurer la parole. Il détermine si l’accès à l’information est global ou sectorisé. Il a un impact sur qui peut voir quoi, ou sur ce qui est surveillé. Lorsqu’on commence à comprendre la nature de ce code, on se rend compte que, d’une myriade de manières, le code du cyberespace régule.

Cette régulation est en train de changer. Le code du cyberespace aussi. Et à mesure que ce code change, il en va de même pour la nature du cyberespace. Le cyberespace est un lieu qui protège l’anonymat, la liberté d’expression et l’autonomie des individus, il est en train de devenir un lieu qui rend l’anonymat plus difficile, l’expression moins libre et fait de l’autonomie individuelle l’apanage des seuls experts.

Mon objectif, dans ce court article, est de faire comprendre cette régulation, et de montrer en quoi elle est en train de changer. Car si nous ne comprenons pas en quoi le cyberespace peut intégrer, ou supplanter, certaines valeurs de nos traditions constitutionnelles, nous perdrons le contrôle de ces valeurs. La loi du cyberespace – le code – les supplantera.

Ce que contrôle le code

Le code élémentaire d’Internet est constitué d’un ensemble de protocoles appelé TCP/IP. Ces protocoles permettent l’échange de données entre réseaux interconnectés. Ces échanges se produisent sans que les réseaux aient connaissance du contenu des données, et sans qu’ils sachent qui est réellement l’expéditeur de tel ou tel bloc de données. Ce code est donc neutre à l’égard des données, et ignore tout de l’utilisateur.

Ces spécificités du TCP/IP ont des conséquences sur la régulabilité des activités sur Internet. Elles rendent la régulation des comportements difficile. Dans la mesure où il est difficile d’identifier les internautes, il devient très difficile d’associer un comportement à un individu particulier. Et dans la mesure où il est difficile d’identifier le type de données qui sont envoyées, il devient très difficile de réguler l’échange d’un certain type de données. Ces spécificités de l’architecture d’Internet signifient que les gouvernements sont relativement restreints dans leur capacité à réguler les activités sur le Net.

Dans certains contextes, et pour certaines personnes, cette irrégulabilité est un bienfait. C’est cette caractéristique du Net, par exemple, qui protège la liberté d’expression. Elle code l’équivalent d’un Premier amendement dans l’architecture même du cyberespace, car elle complique, pour un gouvernement ou une institution puissante, la possibilité de surveiller qui dit quoi et quand. Des informations en provenance de Bosnie ou du Timor Oriental peuvent circuler librement d’un bout à l’autre de la planète car le Net empêche les gouvernements de ces pays de contrôler la manière dont circule l’information. Le Net les en empêche du fait de son architecture même.

Mais dans d’autres contextes, et du point de vue d’autres personnes, ce caractère incontrôlable n’est pas une qualité. Prenez par exemple le gouvernement allemand, confronté aux discours nazis, ou le gouvernement américain, face à la pédo-pornographie. Dans ces situations, l’architecture empêche également tout contrôle, mais ici cette irrégulabilité est considérée comme une tare.

Et il ne s’agit pas seulement des discours nazis et de pornographie enfantine. Les principaux besoins de régulation concerneront le commerce en ligne : quand l’architecture ne permet pas de transactions sécurisées, quand elle permet de masquer facilement la source d’interférences, quand elle facilite la distribution de copies illégales de logiciels ou de musique. Dans ces contextes, le caractère incontrôlable du Net n’est pas considéré comme une qualité par les commerçants, et freinera le développement du commerce.

Que peut-on y faire ?

Nombreux sont ceux qui pensent qu’il n’y a rien à faire : l’irrégulabilité d’Internet est définitive. Il n’est rien que nous puissions faire pour y remédier. Aussi longtemps qu’il existera, Internet restera un espace incontrôlable. C’est dans sa nature même.

Mais rien n’est plus dangereux pour l’avenir de la liberté dans le cyberespace que de croire la liberté garantie par le code. Car le code n’est pas figé. L’architecture du cyberespace n’est pas définitive. L’irrégulabilité est une conséquence du code, mais le code peut changer. D’autres architectures peuvent être superposées aux protocoles de base TCP/IP, et ces nouvelles couches peuvent rendre l’usage du Net fondamentalement contrôlable. Le commerce est en train de construire une architecture de ce type. Le gouvernement peut y aider. Les deux réunis peuvent transformer la nature même du Net. Il le peuvent, et le font.

D’autres architectures

Ce qui rend le Net incontrôlable, c’est qu’il est difficile d’y savoir qui est qui, et difficile de connaître la nature des informations qui y sont échangées. Ces deux caractéristiques sont en train de changer : premièrement, on voit émerger des architectures destinées à faciliter l’identification de l’utilisateur, ou permettant, plus généralement, de garantir la véracité de certaines informations le concernant (qu’il est majeur, que c’est un homme, qu’il est américain, qu’il est avocat). Deuxièmement, des architectures permettant de qualifier les contenus (pornographie, discours violent, discours raciste, discours politique) ont été conçues, et sont déployées en ce moment-même. Ces deux évolutions sont développées sans mandat du gouvernement ; et utilisées conjointement elles mèneraient à un degré de contrôle extraordinaire sur toute activité en ligne. Conjointement, elles pourraient renverser l’irrégulabilité du Net.

Tout dépendrait de la manière dont elles seraient conçues. Les architectures ne sont pas binaires. Il ne s’agit pas juste de choisir entre développer une architecture permettant l’identification ou l’évaluation, ou non. Ce que permet une architecture, et la manière dont elle limite les contrôles, sont des choix. Et en fonction de ces choix, c’est bien plus que la régulabilité qui est en jeu.

Prenons tout d’abord les architectures d’identification, ou de certification. Il existe de nombreuses architectures de certification dans le monde réel. Le permis de conduire, par exemple. Lorsque la police vous arrête et vous demande vos papiers, ils demandent un certificat montrant que vous êtes autorisé à conduire. Ce certificat contient votre nom, votre sexe, votre âge, votre domicile. Toutes ces informations sont nécessaires car il n’existe aucun autre moyen simple pour établir un lien entre le permis et la personne. Vous devez divulguer ces éléments vous concernant afin de certifier que vous êtes le titulaire légitime du permis.

Mais dans le cyberespace, la certification pourrait être ajustée beaucoup plus finement. Si un site est réservé aux adultes, il serait possible – en utilisant des technologies de certification – de certifier que vous êtes un adulte, sans avoir à révéler qui vous êtes ou d’où vous venez. La technologie pourrait permettre de certifier certains faits vous concernant, tout en gardant d’autres faits confidentiels. La technologie dans le cyberespace pourrait fonctionner selon une logique de « moindre révélation », ce qui n’est pas possible dans la réalité.

Là encore, tout dépendrait de la manière dont elle a été conçue. Mais il n’est pas dit que les choses iront dans ce sens. Il existe d’autres architectures en développement, de type « une seule carte pour tout ». Dans ces architectures, il n’est plus possible de limiter simplement ce qui est révélé par un certificat. Si sur un certificat figure votre nom, votre adresse, votre âge, votre nationalité, ainsi que le fait que vous êtes avocat, et si devez prouver que vous êtes avocat, cette architecture certifierait non seulement votre profession, mais également tous les autres éléments vous concernant qui sont contenus dans le certificat. Dans la logique de cette architecture, plus il y a d’informations, mieux c’est. Rien ne permet aux individus de faire le choix du moins.

La différence entre ces deux conceptions est que l’une garantit la vie privée, alors que l’autre non. La première inscrit le respect de la vie privée au cœur de l’architecture d’identification, en laissant un choix clair à l’utilisateur sur ce qu’il veut révéler ; la seconde néglige cette valeur.

Ainsi, le fait que l’architecture de certification qui se construit respecte ou non la vie privée dépend des choix de ceux qui codent. Leurs choix dépendent des incitations qu’ils reçoivent. S’il n’existe aucune incitation à protéger la vie privée – si la demande n’existe pas sur le marché, et que la loi est muette – alors le code ne le fera pas.

L’identification n’est qu’un exemple parmi d’autres. Prenons-en un deuxième, concernant la confidentialité des informations personnelles. RealJukebox est une technologie permettant de copier un CD de musique sur un ordinateur, ou de de télécharger de la musique sur le Net pour la stocker sur un disque dur. Il est apparu en octobre que le système était un peu trop curieux : il inspectait discrètement le disque dur de l’utilisateur, puis transférait à l’entreprise le fruit de ses recherches. Tout ceci en secret, bien entendu : RealNetworks n’avait prévenu personne que son produit collectait et transférait des données personnelles. Quand cet espionnage a été découvert, l’entreprise a tout d’abord tenté de justifier cette pratique (en avançant qu’aucune donnée personnelle n’était conservée), mais elle a fini par revenir à la raison, et a promis de ne plus recueillir ces données.

Ce problème est dû, une fois de plus, à l’architecture. Il n’est pas facile de dire qui espionne quoi, dans le cyberespace. Bien que le problème puisse être corrigé au niveau de l’architecture (en faisant appel à la technologie P3P, par exemple), voici un cas pour lequel la loi est préférable. Si les données personnelles étaient reconnues comme propriété de l’individu, alors leur collecte sans consentement exprès s’apparenterait à du vol.

Dans toutes ces circonstances, les architectures viendront garantir nos valeurs traditionnelles – ou pas. À chaque fois, des décisions seront prises afin de parvenir à une architecture d’Internet respectueuse de ces valeurs et conforme à la loi. Les choix concernant le code et le droit sont des choix de valeurs.

Une question de valeurs

Si c’est le code qui détermine nos valeurs, ne devons-nous pas intervenir dans le choix de ce code ? Devons-nous nous préoccuper de la manière dont les valeurs émergent ici ?

En d’autres temps, cette question aurait semblé incongrue. La démocratie consiste à surveiller et altérer les pouvoirs qui affectent nos valeurs fondamentales, ou comme je le disais au début, les contrôles qui affectent la liberté. En d’autres temps, nous aurions dit « Bien sûr que cela nous concerne. Bien sûr que nous avons un rôle à jouer. »

Mais nous vivons à une époque de scepticisme à l’égard de la démocratie. Notre époque est obsédée par la non-intervention. Laissons Internet se développer comme les codeurs l’entendent, voilà l’opinion générale. Laissons l’État en dehors de ça.

Ce point de vue est compréhensible, vu la nature des interventions étatiques. Vu leurs défauts, il semble préférable d’écarter purement et simplement l’État. Mais c’est une tentation dangereuse, en particulier aujourd’hui.

Ce n’est pas entre régulation et absence de régulation que nous avons à choisir. Le code régule. Il implémente – ou non – un certain nombre de valeurs. Il garantit certaines libertés, ou les empêche. Il protège la vie privée, ou promeut la surveillance. Des gens décident comment le code va se comporter. Des gens l’écrivent. La question n’est donc pas de savoir qui décidera de la manière dont le cyberespace est régulé : ce seront les codeurs. La seule question est de savoir si nous aurons collectivement un rôle dans leur choix – et donc dans la manière dont ces valeurs sont garanties – ou si nous laisserons aux codeurs le soin de choisir nos valeurs à notre place.

Car c’est une évidence : quand l’État se retire, la place ne reste pas vide. Les intérêts privés ont des objectifs qu’ils vont poursuivre. En appuyant sur le bouton anti-Étatique, on ne se téléporte pas au Paradis. Quand les intérêts gouvernementaux sont écartés, d’autres intérêts les remplacent. Les connaissons-nous ? Sommes-nous sûrs qu’ils sont meilleurs ?

Notre première réaction devrait être l’hésitation. Il est opportun de commencer par laisser le marché se développer. Mais, tout comme la Constitution contrôle et limite l’action du Congrès, les valeurs constitutionnelles devraient contrôler et limiter l’action du marché. Nous devrions examiner l’architecture du cyberespace de la même manière que nous examinons le fonctionnement de nos institutions.

Si nous ne le faisons pas, ou si nous n’apprenons pas à le faire, la pertinence de notre tradition constitutionnelle va décliner. Tout comme notre engagement autour de valeurs fondamentales, par le biais d’une constitution promulguée en pleine conscience. Nous resterons aveugles à la menace que notre époque fait peser sur les libertés et les valeurs dont nous avons hérité. La loi du cyberespace dépendra de la manière dont il est codé, mais nous aurons perdu tout rôle dans le choix de cette loi.

Lawrence Lessig est professeur de droit des affaires au Centre Berkman de la Harvard Law School. Son dernier livre, « Le code, et les autres lois du cyberespace » (Basic Books), vient d’être publié (voir http://code-is-law.org). Le site du Centre Berkman pour l’Internet et la Société est http://cyber.law.harvard.edu.

Billet initialement publié sur Framablog ; images CC Flickr [santus], Chiara Marra, Ezu, kulakovich

Téléchargez le poster d’Elliot Lepers (CC)

]]>
http://owni.fr/2010/09/30/le-code-fait-la-loi-trad-francaise/feed/ 4
Second Life: un beau procès en vue? http://owni.fr/2010/05/11/second-life-un-beau-proces-en-vue/ http://owni.fr/2010/05/11/second-life-un-beau-proces-en-vue/#comments Tue, 11 May 2010 14:18:29 +0000 Lionel Maurel (Calimaq) http://owni.fr/?p=15273 Le mois dernier, j’avais relevé que les conditions d’utilisation de l’univers persistant Second Life avaient été modifiées de manière à ce que les captures d’écran et les vidéos puissent être réalisées en son sein de manière plus fluide, sans se heurter à la multitude de droits de propriété intellectuelle qui imprègnent chaque chose en ce monde artificiel. Cette évolution avait été saluée comme un progrès réalisé dans le sens de l’ouverture et de la réutilisation créative des contenus.

Or il s’avère que ces CGU contiennent d’autres modifications importantes, qui ont déclenché une vague de plaintes aux Etats-Unis de la part des résidents de Second Life, et qui vont peut-être déboucher sur un des procès les plus intéressants de ces dernières années, puisqu’il confrontera les juges à cette épineuse question : la propriété virtuelle existe-t-elle ? Mais plus largement, cette affaire renvoie au problème de “l’hybride juste”, un concept forgé par le juriste américain Lawrence Lessig, relatif aux rapports que les services 2.0 entretiennent avec leurs utilisateurs.

S'acheter une île de rêve sur Second Life, c'est possible. Mais cela vaut-il quelque chose ? (Par Rikomatic. CC-BY-NC-SA. Source : Flickr)

Jusqu’à présent, Linden Lab, l’entité à l’origine de Second Life, s’était montré très libéral dans la manière dont il proposait son service aux utilisateurs. Les “terrains virtuels” que les usagers pouvaient acheter contre de l’argent, bien réel, étaient présentés comme des possessions véritables, des petits bouts du monde, que les résidents étaient libres de développer et d’occuper à leur guise.  Philip Rosedale, le directeur général de Linden Lab,  déclarait :

What you have in Second Life is real and it’s yours. It doesn’t belong to us. We have no claim to it.

Il n’est pas douteux qu’une telle promesse a contribué pour une part au succès de l’univers, en le démarquant de ses concurrents. Il offrait aux usagers le sentiment d’être un peu “chez eux”, dans une sorte d’Eldorado de la propriété virtuelle. Surtout que Second Life n’est pas uniquement un jeu innocent, mais également un véritable microcosme économique avec ses entreprises, ses marchands et même sa propre monnaie, le Linden Dollar.

Expropriation en vue sur Second Life ?

Les nouveaux terms of service ont opéré un virage assez radical par rapport à la promesse initiale, qui marque un retour en arrière par rapport à l’idée de propriété :

“VIRTUAL LAND” IS IN-WORLD SPACE THAT WE LICENSE

Virtual Land is the graphical representation of three-dimensional virtual world space. When you acquire Virtual Land, you obtain a limited license to access and use certain features of the Service associated with Virtual Land stored on our Servers. Virtual Land is available for Purchase or distribution at Linden Lab’s discretion, and is not redeemable for monetary value from Linden Lab.

Le terrain virtuel n’apparaît pas comme une propriété, mais comme un service auquel une simple licence donne un droit d’accès et d’usage. On est assez loin de la propriété inviolable et sacrée de l’article 17 de la Déclaration des Droits de l’Homme, puisque cette licence est révocable à tout moment par Linden Lab. Les terrains virtuels de Second Life ne sont pas plus de véritables propriétés que les livres numériques que nous achetons.

Ce changement de politique n’a pas été du goût de tous les résidents et particulièrement de ceux qui avaient consacrés beaucoup de temps et d’efforts à enrichir et développer leurs terrains. Pour certains d’entre eux, Second Life était même devenu un véritable outil de travail. Cet article du Los Angeles Times raconte ainsi comment un architecte, David Denton, avait acquis pour 700 dollars une île afin d’en faire un lieu d’exposition de ses créations, qu’il faisait visiter aux avatars de ses clients pour leur donner un avant-goût de ses talents.

Les résidents de Second Life pourraient bien se voir privés... de propriété privée ! (Propriété privée. Par Y. Caradec. CC-BY-NC-SA. Source : Flickr)

David est l’un des 50 000 résidents qui ont dépensé un peu plus de 100 millions de dollars pour acquérir un lopin de terre virtuelle. Beaucoup d’entre eux ont vécu la modification unilatérale des conditions d’utilisation de Second Life comme une  expropriation et ont décidé d’agir en justice pour faire valoir leurs droits et demander réparation du préjudice subi.

L’affaire est sérieuse, car le procès prend la forme d’une class action (un recours collectif), particularité du droit américain qui permet à un groupe de plaignants de représenter devant les juges une catégorie de personnes partageant les mêmes intérêts et d’agir en leur nom. Ici, les résidents qui ont saisi la justice entendent bien défendre les droits de tous les utilisateurs de Second Life depuis son lancement en 2003.

Ce procès au léger parfum de science fiction juridique s’annonce passionnant à suivre, car il faudra pour trancher que les juges décident si la propriété virtuelle a un sens et si on peut lui appliquer les mêmes règles que la propriété des biens matériels.

Existe-t-il des “hybrides justes” ?

Plus largement, cette affaire renvoie à ce que le juriste Lawrence Lessig, le père des licences Creative Commons, appelle la question de “l’hybride juste”.

Dans le web 2.0, les contenus sont de plus en plus directement produits par les utilisateurs des services (User Generated Content) de manière interactive. S’ils ne sont plus des consommateurs passifs, mais s’ils contribuent directement à enrichir les services qu’ils utilisent, ne devraient-on pas reconnaître et garantir aux internautes des droits sur ces contenus, auxquels ils consacrent leur temps et leur créativité ?

Je vous recommande de visionner (ou de revisionner) la conférence de Lawrence Lessig : “Getting the network the world need” (sous-titrée en français). Aux minutes 28 et 39, Lessig introduit et développe ce concept de “l’hybride juste”, qui apparaît en filigrane dans l’affaire Second Life.
Lessig distingue deux types d’économies sur le web : une économie commerciale et une économie du partage. La première repose classiquement sur des échanges monétaires, tandis que dans la seconde, les individus vont donner gratuitement de leur temps pour contribuer à créer des contenus et les partager avec d’autres utilisateurs (eBAy contre Wikipédia, pour aller vite).

Cette distinction permet de repérer des grandes tendances sur le web, mais Lessig insiste sur le fait que de plus en plus de services sont en réalité des “hybrides”, mêlant de manière inextricable le commerce et le partage. Flickr par exemple est né comme une plateforme d’échange de photographies entre utilisateurs, autorisant l’emploi des licences Creative Commons pour faciliter la réutilisation des contenus. Le site  a cependant été racheté en 2005 par Yahoo!, qui a décidé de tirer profit de cette économie du partage, en y injectant des services payants. Et cela a fonctionné puisque Flickr constitue l’une des acquisitions les plus rentables de Yahoo!

À l’inverse, des services commerciaux dès l’origine peuvent être des lieux de partage, d’échange et de co-production des contenus. Amazon par exemple offrent aux utilisateurs des fonctionnalités pour critiquer, noter, tagger les produits qu’il propose à la vente, et ces enrichissements apportés gratuitement par les usagers font partie intégrante de sa stratégie et de son modèle économique. Ils constituent même une partie non négligeable de la valeur du site. Second Life, que Lawrence Lessig cite également comme exemple, fait lui aussi partie de ces hybrides commerciaux qui savent parfaitement tirer profit de l’économie du partage.

Lessig constate que la plupart de ces hybrides ne sont pas “justes”, dans la mesure où ils s’approprient, par le biais de leurs conditions d’utilisation, les apports de leurs utilisateurs. Une bonne illustration citée par Lessig : le site Star Wars Mashup (visiblement disparu), qui permettait aux fans de la série de remixer des vidéos tirés des films, mais opérait par le biais de ces CGU une discrète – mais non moins totale – cession des droits au profit de… Lucas Films (!), y compris pour les contenus originaux créés par les usagers (comme les musiques).

Le Bon, la Brute et le Tru@nd

Parmi les plateformes hybrides, il y a bien peu de bons, quelques brutes comme Star Wars Mashup, mais surtout, un certain nombre  de tru@ands… Des sites qui commencent à attirer les utilisateurs avec des CGU très ouvertes pour susciter une communauté de contributeurs actifs et qui, brusquement, opèrent un changement de leurs conditions d’utilisation.

C’est exactement ce que vient de faire Second Life, en balayant d’un revers contractuel la propriété virtuelle de ses résidents. Mais il ne faut pas chercher très loin pour trouver d’autres “coups de filets” tout aussi marquants. Twitter par exemple, dont les CGU d’origine proclamaient “What’s yours is yoursa changé en 2009 de conditions d’utilisation et s’est octroyé au passage une licence générale d’utilisation sur les tweets produits par ses usagers, de manière à préparer la mise en place de son modèle publicitaire. Dans un autre registre, EFF publiait récemment une chronologie qui montrait comment Facebook, par le biais de six changements de CGU depuis 2005, s’est octroyé graduellement des droits d’usage de plus en plus importants des données personnelles de ses utilisateurs.

Ces conditions d’utilisation, souvent obscures et illisibles, permettent aux éditeurs de ces sites de s’approprier les fruits de l’intelligence collective à l’œuvre sur le Web 2.0 et d’en capter le bénéfice. Elles font trop souvent de nous des fourmis, sacrifiant de leurs temps et de leur énergie, au profit de quelque chose qui les dépassent et dont elles n’ont pas conscience.

Cliquer ici pour voir la vidéo.

Certains n’hésitent pas à parler à propos de ces pratiques d’un “effet de serfs” sur la Toile ou d’un parasitisme immatériel, qui constituerait l’infrastructure réelle du nouveau capitalisme cognitif, à l’oeuvre sur Internet, derrière le voile idéologique du collaboratif et de la culture libre.

Pour en sortir : propriété virtuelle ou biens communs ?

Lessig pose la question de savoir à quelles conditions juridiques un hybride peut être considéré comme juste, sans apporter véritablement de réponse. Il faudrait certainement passer beaucoup de temps à analyser et à comparer les conditions d’utilisation des sites 2.0 pour faire un état de la question (une première ébauche intéressante dans ce billet). La lecture de ce rapport de l’IVIR “Legal Aspects of User Created Content” fournit également des pistes intéressantes.

Mais je suis loin d’être certain que revendiquer une propriété virtuelle, comme tentent de le faire les résidents de Second Life, constitue une bonne solution. Ces usagers me font penser aux victimes de ces arnaques à qui l’on vend des bouts de terrains sur la Lune ou le nom d’une étoile, par le biais d’un contrat de pacotille. La notion de propriété dans le virtuel est hautement problématique ; il est loin d’être certain (ni même souhaitable) que l’on puisse étendre les principes de la propriété matérielle aux objets immatériels. Souvenons-nous de la mise en grade de Rousseau, qui conserve toute son acuité à l’heure du numérique :

Pour moi, un hybride juste serait celui qui réussirait, non pas à garantir aux usagers un titre de propriété sur les contenus qu’ils produisent, mais à faire en sorte, au contraire, que personne ne puisse s’approprier définitivement le fruit de l’intelligence collective et des interactions nées du partage et de l’échange (voyez cet excellent article sur la question). Pour cela, il faudrait pouvoir juridiquement constituer les User Created Content en biens communs, non appropriables à titre exclusif.

Le défi consiste à le faire tout en permettant à des modèles économiques de se mettre en place, pour que le caractère hybride des plateformes puisse perdurer.

Utopie numérique ?

Billet initialement publié sur :: S.I.Lex ::

]]>
http://owni.fr/2010/05/11/second-life-un-beau-proces-en-vue/feed/ 4
Google livres : par le petit book de la tablette (1/3) http://owni.fr/2010/03/16/google-livres-par-le-petit-book-de-la-tablette-13/ http://owni.fr/2010/03/16/google-livres-par-le-petit-book-de-la-tablette-13/#comments Tue, 16 Mar 2010 15:04:46 +0000 Olivier Ertzscheid http://owni.fr/?p=10168 google2

Photo CC Christopher Chan sur Flickr

[...] N’ayant en guise d’ouvrage que la chronique idoine de ce blog, je me décide à rédiger une nouvelle série de billets pour expurger l’amoncellement de nouvelles au sujet de Google Books.

Le premier de ces billets (que vous êtes en train de lire, bande de petits veinards), sera uniquement consacré au volet “numérisation d’ouvrages du domaine public”, autrement dit le programme “Library partners” de Google Books.

============================
Google Books : l’état c’est moi.
============================

Côté bibliothèques, il manquait encore à la stratégie de Google deux pierres essentielles, tant pour les “relations publiques” et l’image du projet (de plus en plus malmenée), que pour le précédent que cela permettrait de créer : ces deux pierres sont la signature d’un accord avec une bibliothèque nationale (d’où les négociations, dès l’été 2009 et probablement encore un peu avant, avec la BnF), et celle de la signature avec un état en tant que tel. Or voici donc que depuis le 10 Mars 2010, Google a signé avec le ministère de la Culture italien pour la numérisation et la mise en ligne d’un million de volumes, libres de droits (publiés avant 1860).

Coup double et coup de maître, puisque ledit contrat confère à Google un statut de prestataire étatique qui pourrait en inciter plusieurs autres – états – à revoir leur position, et lui donne également accès à non pas une mais bien deux bibliothèques nationales (Rome et Florence). Comme le souligne Le Monde, c’est donc bien d’une victoire politique qu’il s’agit. D’autant que ce nouvel allié politique devrait là encore pouvoir être cité comme témoin dans le procès en cours concernant la numérisation des ouvrages sous droits (et je ne parle même pas des – nouvelles – activités de lobbying ainsi autorisées …)

Modus operandi. Tout comme pour le projet de numérisation de la bibliothèque de Lyon, Google installera un centre de numérisation en Italie. La numérisation du million d’ouvrages – pour l’instant – concernés, devrait prendre deux ans. Sur les aspects concrets de ladite numérisation et les risques toujours actuels de dérive vers un eugénisme documentaire, on sait peu de choses. La dépêche AFP délayée dans Les Échos nous indique que :

- “le moteur de recherche s’engage à fournir aux bibliothèques des copies numériques de ces livres, “leur permettant ainsi de les rendre accessibles aux lecteurs sur d’autres plateformes, y compris d’autres projets européens comme Europeana“.

Rien n’est dit sur le type de copie numérique qui sera ainsi partagée, sur son ouverture à l’indexation par d’autres moteurs, sur l’exclusivité – ou non – d’indexation, bref sur l’ensemble des points qui posent habituellement problème dans les contrats signés entre Google et les bibliothèques.

À noter : la déshérence et le désengagement de l’État italien berlusconien dans le domaine des politiques publiques peut également apparaître comme un facteur non-négligeable à l’explication de cette “première mondiale”. Bon par contre on n’a pas réussi à prouver que la Camorra avait infiltrée Google mais bon entre pieuvres… ;-)

==========================================
Google Books : l’OPAC ultime en ligne de mire ?
==========================================

Quand on s’interroge sur le “pourquoi Google investit-il à perte dans la numérisation d’ouvrages du domaine public”, on dispose de plusieurs niveaux de réponse :

- d’abord – c’est l’argument que je ressasse depuis longtemps – parce que ce projet est tout sauf une danseuse et que Google, après avoir “gagné” la bataille de l’information, a compris – avant d’autres, y compris les états présidant au devenir financier de nos bibliothèques nationales numériques -  qu’il devait se positionner sur la bataille de la connaissance. Comme il a avant d’autres compris que l’essence de la bibliothèque, que les enjeux qui la fondent et lui sont indissolublement liés sont d’abord de nature politique. Et que de la maîtrise de cet échiquier politique dépendrait ensuite la maîtrise de secteurs économiques entiers (dont la “chaîne du livre” en tant que maillon – pas forcément faible – des industries de la connaissance)

- ensuite parce que cet investissement lui donne la légitimité (et la compétence) pour s’installer durablement sur le secteur de la numérisation d’ouvrages sous droits (second volet de Google Books)

- et tout un tas d’autres raisons, dont la constitution de la plus grande archive documentaire de corpus multilingue (ceci expliquant peut-être sa suprématie dans le domaine de la traduction automatique…)

Preuve est désormais faite que numériser des livres peut permettre de ramasser un beau pactole et que ces investissements dès le lancement du projet en 2004, l’étaient dans une perspective claire de monétisation. Dans la cadre de la “plateforme” Google Books, il est plusieurs manières de gagner de l’argent :

- pour les éditeurs… ben c’est tout l’enjeu du procès actuel aux États-Unis et en France… pour gagner de l’argent avec les éditeurs disais-je, il suffit à Google de casser la chaîne de médiation (en évacuant par exemple les libraires), ou tout au moins de s’y positionner comme un routeur incontournable préemptant au passage des droits de douane qu’il est le seul à fixer (c’est précisément le rôle du Google Books Settlement).

- pour gagner de l’argent avec les auteurs, il suffit d’augmenter leur commission, en se payant sur les commissions que ne touchent plus les éditeurs et/ou les libraires (et je maintiens qu’en juin 2010, date de lancement désormais officielle de Google Editions, on verra apparaître un outil de micro-paiement à destination des auteurs, construit sur le modèle pay-per-click des publicités Adsense … les paris sont ouverts ;-)

- pour gagner de l’argent avec les bibliothèques, c’est à peine plus compliqué : soit on leur propose des contrats léonins jouant clairement sur un abus de position dominante, (voir aussi ce qu’il pourrait en être de l’inaliénabilité du domaine public) mais il est probable que ce ne soit pas entièrement satisfaisant (et un peu risqué) sur le long terme. Soit on leur fait payer l’accès à la copie de l’ouvrage par le truchement de licences monopostes (volet bibliothèque du GoogleBooks Settlement). Soit on prévoit de leur proposer, à terme, un accès – payant – à ce qui ressemble chaque jour davantage à un OPAC planétaire de ressources en texte intégral (les OPAC planétaires classiques s’arrêtant aux seules métadonnées).

Il n’est ainsi pas improbable qu’en même temps qu’il lancera Google Editions pour (contre?) les libraires et éditeurs, Google, en s’appuyant sur la masse de documents du domaine public déjà numérisés, en s’appuyant également sur les fonctionnalités de plus en plus “bibliothéconomiques” de l’interface GoogleBookSearch, il n’est pas improbable disais-je que Google propose aux bibliothèques une architecture “full-web” leur permettant – et à leurs utilisateurs – de déporter “dans les nuages” une partie significative des composantes habituellement dévolues aux SIGB (Systèmes informatiques de Gestion de Bibliothèque). Fantasme de mon esprit malade ? Nous verrons bien :-)

google4

Image CC MikeBlogs sur Flickr

=========================================================================
Google Books : des rapports et des lois … mais pas vraiment de rapport à la loi …
=========================================================================

Après le rapport Tessier (exégèse disponible ici), c’est donc la très sérieuse commission des finances du Sénat qui planche sur le rapport Gaillard : “La politique du livre face au numérique“, dont une partie importante est entièrement consacrée à “l’affaire Google“. Pas grand chose à signaler dans ledit rapport, si ce n’est qu’il valide les conclusions du rapport Tessier (= la BnF doit signer avec Google en évitant l’exclusivité d’indexation et en se réservant les droits de mise à disposition immédiate auprès de son public). Le prochain rendez-vous est fixé au 28 avril prochain où la commission de la culture débattra pendant une table-ronde réunissant tous les acteurs de la chaîne du livre des deux points suivants :

– “l’avenir de la filière du livre et l’opportunité de fixer un prix unique au livre numérique,
- la politique de numérisation pour le livre, selon qu’il est libre de droits ou sous droits.

Le rapport Gaillard tient tout entier en une phrase clé : “avec les moyens actuels de la BnF, il faudrait environ 750 millions d’euros et 375 ans pour numériser l’ensemble des ouvrages. Selon M. Bruno Racine, la totalité des fonds de la BnF pourrait être numérisée en 10 ans par Google.Ita missa est. Sauf que … Sauf que l’expression même de “numériser l’ensemble des ouvrages” n’a aucun sens bibliothéconomique, Google pas plus que la BnF ne prétendant vouloir (et surtout pouvoir) numériser l’intégralité des fonds documentaires.

La numérisation est d’abord affaire de choix et de priorités définies selon des critères là encore bibliothéconomiques (rareté, ancienneté, fréquence des emprunts, etc …) et prendre prétexte comptable de l’éternel fantasme de la bibliothèque universelle me semble un raisonnement spécieux qui masque les réels enjeux politiques d’un tel projet.

Dernier point intéressant dans le rapport Gaillard, le tableau de la répartition des fonds du grand emprunt entre les différents organismes publics bénéficiaires.

A noter que, nonobstant la procédure toujours en cours (le procès Google Books donc), certaines universités (et pas des moins prestigieuses) déjà parties prenantes lors du lancement de Google Books,  n’hésitent pas à apporter publiquement leur soutien à la version “amendée” dudit Google Books Settlement. C’est le cas de Stanford, qui vient donc de resigner avec Google.

A noter encore, et toujours concernant les issues possible du procès en cours, vous avez la possibilité de vous coller un bon mal de crâne prendre la mesure des différents scénarios possibles, en consultant le schéma (pdf) disponible sous ce lien et produit par la très active et lobbyiste Library Copyright Alliance.

Et Europeana dans tout ça ?? Et bien, à parcourir le rapport sur les prochaines étapes de déploiement de ce projet, on est saisi de constater à quel point l’enlisement le dispute à l’atermoiement. Un saisissement que deux paramètres permettent d’éclairer : dans l’urgence et la vitesse à laquelle bougent les choses sur la question de la numérisation patrimoniale (grâce à l’effet de ricochet et/ou d’aspiration de la numérisation commerciale), l’échelon européen ne semble pas être le bon pour articuler un projet “à l’échelle” de Google. L’autre paramètre est naturellement financier, une majorité de bibliothèques européennes, du côté de l’Europe de l’Est notamment, s’interrogeant sur l’opportunité de passer du temps à alimenter un portail sans aucune visibilité là où des partenariats avec Google leurs permettraient d’économiser de la logistique, du temps, et surtout de l’argent. À n’en pas douter, la récente signature du partenariat avec le ministère de la Culture italien ne va pas contribuer à mobiliser les acteurs européens dans le sens du développement d’Europeana. Bref, ce qui était et qui demeure un beau projet souffre d’un énorme problème de positionnement, résultant lui-même d’un tout aussi important problème de calendrier et d’une implication parfaitement insuffisante (et insuffisamment répartie) entre ses différents acteurs supposés (soit, en théorie, l’ensemble des bibliothèques nationales européennes).

=============================================
Google Books ou le périmètre des biens communs.
=============================================

Comme l’illustre magnifiquement Asaf Hanuka, le monstre Google continue d’effrayer. Google est méchant. Google s’expose à une liste de plus en plus impressionnante (et documentée) de critiques. Les premiers cris d’effroi passés, il serait dommage de perdre de vue que la principale dangerosité du projet Google Books ne lui est pas intrinsèque. Bien au contraire, elle tient, en ce domaine comme en d’autres, au fait que les avancées de la firme nous obligent (et nos “états” avant nous …) en permanence à repenser la nature et le périmètre de ce qui doit être, devenir ou demeurer un ensemble de biens communs de la connaissance. Ce n’est qu’au prix d’une définition claire et politiquement argumentée desdits biens communs qu’un balisage efficace (efficient ?) de la frontière entre ce qui relève de la sphère publique et de la sphère privée pourra être établi sur la question de la numérisation en particulier, et sur la question de l’accès à l’information en général.

================================
Google Books : “A path to insanity”.
================================

Dans l’un de ses derniers essais (repéré sur Techcrunch), intitulé : “For the Love of Culture : Google, copyright and our future“, Lawrence Lessig se livre à la meilleure analyse – selon moi … – des dangers que représente Google Books non pas en tant que dispositif, mais en tant que processus d’aliénation de l’accès à la culture, en tant que processus d’industrialisation de la copie** (comme en écho aux lectures industrielles théorisées par Alain Giffard, ces deux-là – Lessig et Giffard – ayant depuis longtemps parfaitement cerné la réelle nature du problème de GoogleBooks). Le texte est un argumentaire absolument limpide et remarquable qu’il conviendrait de citer en entier. Quelques extraits pour vous mettre en bouche :

C’est ici le problème de la granularité documentaire que pose Lessig. Là où les bibliothèques se posent (parfois un peu trop …) la question de savoir quels types d’unités de connaissance peuvent “faire collection”, l’approche de Google Books transforme chaque opération intellectuelle d’indexation, d’extraction, de citation ou même de simple “lecture” en une “copie”, rendant toute tentative de collection aussi vaine que la lecture du Livre de sable de Borges. Résultat ?

Au-delà même des aspects législatifs et réglementaires qui complexifient et rendent monétisables les différentes traçabilités de ces copies (via, par exemple, les DRM “embarqués” dans icelles), la notion même de copie (telle que mise en œuvre par GoogleBooks et telle que combattue par Lessig), la notion même de copie est dangereuse parce qu’elle brise et révoque l’idée même de toute possibilité de continuité documentaire. Or sans continuité documentaire, toute agrégation, toute collection devient impossible. Sans continuité documentaire, toute culture cède la place à d’éphémères et innombrables acculturations temporaires.

La copie devient ainsi une fin en soi, éternellement “légiférable” et “monétisable” parce qu’éternellement reproductible et déconnectée de la totalité, de la complétude initiale qui lui permet d’exister en tant que telle. La copie devient une fin en soi, en même temps qu’elle cesse d’être l’instrument ou le support d’une pratique de recherche, de lecture, d’étude ou de partage. Elle s’industrialise**.

google3

Image CC ahhyeah sur Flickr

Lessig conclut son essai de la manière suivante :
The deal constructs a world in which control can be exercised at the level of a page, and maybe even a quote. It is a world in which every bit, every published word, could be licensed. It is the opposite of the old slogan about nuclear power: every bit gets metered, because metering is so cheap. We begin to sell access to knowledge the way we sell access to a movie theater, or a candy store, or a baseball stadium. We create not digital libraries, but digital bookstores: a Barnes & Noble without the Starbucks.” (…) “In real libraries, in real space, access is not metered at the level of the page (or the image on the page). Access is metered at the level of books (or magazines, or CDs, or DVDs). You get to browse through the whole of the library, for free. You get to check out the books you want to read, for free. The real-space library is a den protected from the metering of the market. It is of course created within a market; but like kids in a playroom, we let the life inside the library ignore the market outside.

We are about to change that past, radically. And the premise for that change is an accidental feature of the architecture of copyright law: that it regulates copies. In the physical world, this architecture means that the law regulates a small set of the possible uses of a copyrighted work. In the digital world, this architecture means that the law regulates everything. For every single use of creative work in digital space makes a copy. Thus–the lawyer insists–every single use must in some sense be licensed. Even the scanning of a book for the purpose of generating an index–the action at the core of the Google book case–triggers the law of copyright, because that scanning, again, produces a copy.

I have no clear view. I only know that the two extremes that are before us would, each of them, if operating alone, be awful for our culture. The one extreme, pushed by copyright abolitionists, that forces free access on every form of culture, would shrink the range and the diversity of culture. I am against abolitionism. And I see no reason to support the other extreme either–pushed by the content industry–that seeks to license every single use of culture, in whatever context. That extreme would radically shrink access to our past. (…) But this is too important a matter to be left to private enterprises and private deals. Private deals and outdated law are what got us into this mess. Whether or not a sensible public policy is possible, it is urgently needed.
Il y a effectivement urgence. Et cette urgence n’est pas comptable, elle ne se chiffre pas en nombre de millions de volumes numérisables à l’instant “t” ou en millions d’euros nécessaires à une numérisation exhaustive. Google ne fait que laisser se déployer son écosystème informationnel, il ne fait que laisser tourner à plein régime toute la force d’inertie générée par une tyrannie de l’accès à l’information érigée et maquillée en paradigme de l’organisation des connaissances. Mais la faute n’incombe pas à Google. Il n’appartient pas à Google de circonscrire son rayon d’action. Seule compte pour lui la possibilité de l’étendre, ce dont on ne saurait le blâmer tant nous profitons – pour l’instant – des effets de bord de ces incessantes extensions.

C’est aux états et aux théoriciens qu’il appartient de circonscrire le rayon d’action de ces écosystèmes aussi économiquement dérégulés qu’ils sont informationnellement cohérents. Et l’un des meilleurs et des plus sûrs moyens pour y parvenir est de délimiter un régime mondial des biens communs (ce qui n’est pas tout à fait la même chose que de parler de l’accès comme “d’un bien public mondial”). Des biens communs dont le centre de gravité est pour l’instant partout, ou tout du moins à chaque endroit dans ou pour lequel se pose la question d’une appropriation possiblement pérenne ; mais des biens communs dont la circonférence n’est pour l’instant… nulle part.

**sur la notion d’une industrialisation ad libitum de la copie, Ted Nelson au travers du concept de Versioning avait été une fois de plus, parfaitement visionnaire. Dans ses travaux, le versioning désigne : “l’ensemble des manières de gérer, indépendamment de tout niveau d’échelle, les procédures permettant de rattacher différentes versions d’un même document à un (des) auteur(s), tout en permettant à chacun de s’approprier tout ou partie des documents produits par d’autres ou par eux-mêmes, et en assurant un suivi des différentes modifications apportées.“) Soit le dispositif technique auquel Lessig réfléchit sans le nommer, permettant d’éviter toutes les “insanities” subséquentes à une gestion de la copie dont la finalité serait uniquement de marchandiser l’accès à tout fragment (= à toute copie) généré(e) ou inscrit(e) dans un parcours de lecture ou de navigation. Bon là j’ai pas trop le temps de creuser, mais pour les masochistes souhaitant approfondir la notion de versioning, une (petite) partie de ma thèse lui est consacrée (pp. 203 à 205).

Billet initialement publié sur Affordance.info

]]>
http://owni.fr/2010/03/16/google-livres-par-le-petit-book-de-la-tablette-13/feed/ 2
Liberté d’Internet : Lawrence Lessig secoue le parlement italien http://owni.fr/2010/03/14/liberte-dinternet-lawrence-lessig-secoue-le-parlement-italien/ http://owni.fr/2010/03/14/liberte-dinternet-lawrence-lessig-secoue-le-parlement-italien/#comments Sun, 14 Mar 2010 08:43:42 +0000 Admin http://owni.fr/?p=10018 Le 11 mars, l’inventeur des Creative Commons a tenu un discours à la Chambre des députés, à Rome, pour défendre les libertés numériques, alors qu’un tribunal de Milan s’est prononcé, le 24 février dernier, pour la responsabilité pénale de Google avec un arrêt qualifié d’”attaque à la démocratie” par les États-Unis. Voici l’allocution intégrale de Lawrence Lessig.

Cliquer ici pour voir la vidéo.

]]>
http://owni.fr/2010/03/14/liberte-dinternet-lawrence-lessig-secoue-le-parlement-italien/feed/ 2
Et si le droit de citation devait sauver le patrimoine culturel ? http://owni.fr/2010/02/06/et-si-le-droit-de-citation-devait-sauver-le-patrimoine-culturel/ http://owni.fr/2010/02/06/et-si-le-droit-de-citation-devait-sauver-le-patrimoine-culturel/#comments Sat, 06 Feb 2010 06:28:50 +0000 Michèle Battisti http://owni.fr/?p=7705 Je ne me suis pas trompée. Le long article de Lawrence Lessig publié  hier (réf.1)  méritait que l’on s’y penche. Il y pointe les aberrations du droit d’auteur, tel qu’appliqué à l’environnement numérique, en partant de difficultés rencontrées dans l’environnement traditionnel par les documentaristes pour libérer les droits sur les nombreux extraits d’œuvres que l’on trouve immanquablement dans ce type de documents. Or, sans droits, ces documentaires, qui représentent des pans importants du patrimoine culturel d’un pays, ne peuvent plus être réexploités et disparaissent.

Ce qu’il met en exergue, c’est qu’assez curieusement  ces courts extraits qui émaillent les œuvres audiovisuelles et les films, n’ont jamais fait l’objet d’une exception  au titre du droit de citation comme pour les livres et que, de tout temps, une demande d’autorisation était nécessaire pour pouvoir les insérer. Si l’habitude a été prise pour les  auteurs et producteurs d’œuvres audiovisuelles et de films de négocier des droits pour les premières exploitations,  les difficultés, bien souvent l’impossibilité, d’obtenir les droits nécessaires apparaissent lorsque l’on veut les reproduire pour les conserver (*) et les rediffuser ultérieurement.

Un parallèle avec le numérique, où chaque usage est soumis à une licence d’autorisation,  s’imposait donc tout naturellement, ainsi que les menaces que représente un tel modèle pour l’avenir du patrimoine culturel mondial.

Abandonner une « vision autiste » du droit d’auteur

Selon Lawrence Lessig, copier une œuvre à la seule fin  l’indexer ne devrait pas être redevable de droits. Et Google, souligne-t-il aussi (du moins aujourd’hui prend-il la peine d’ajouter), propose dans son projet de Règlement des conditions d’accès aux œuvres plus favorable que le Fair use. Les problèmes majeurs de cet accord ne seraient d’ailleurs  pas liés à la situation de monopole ni même aux atteintes à la vie privée, mais à l’impact du modèle adopté par Google sur l’accès à la culture. Google, certes, a une vision plutôt laxiste de l’accès (c’est bien que lui reprochent les auteurs et les éditeurs, même aux Etats-Unis), mais pour Lawrence Lessig cette vision reste dangereuse car elle protège de fait chaque unité d’une œuvre par un droit d’auteur. Pour marquer les esprits, il donne pour exemple l’absence d’un tableau, dont les droits n’ont pas été obtenus, dans un article scientifique proposé pourtant en libre accès par son auteur.

Puisqu’il est impossible aujourd’hui de ne pas « entrer chaque jour en collision avec le droit d’auteur », et que la complexité engendrée par le système n’est certainement pas un progrès, il convient de restaurer les espaces de liberté, comme l’ont été les  bibliothèques où l’on pouvait, qui que l’on soit, accéder gratuitement à tous les livres dans leur intégralité.

Une nouvelle vision qui doit s’imposer rapidement

Le droit d’auteur est naturellement important pour les auteurs et les éditeurs et doit subsister. Mais, selon  Lawrence Lessig les œuvres ont deux vies : une première où le droit d’auteur est pertinent ; une seconde où certaines utilisations doivent être autorisées.

Il propose aussi trois pistes  pour pallier les problèmes les plus criants :
- 1° pour libérer les droits plus facilement, créer des registres, sur le modèle des registres de noms de domaines,  où les ayants- droit inscriraient leurs œuvres après un délai (estimé à 5 ans). Les oeuvres qui n’y figureraient pas seraient réputées appartenir au domaine public ;
- 2° pour réexploiter l’œuvre légalement, l’ayant droit d’une œuvre composite serait réputé être propriétaire des droits sur l’ensemble des éléments qui la compose au bout d’un délai donné (14 ans, par exemple);
- 3° s’inspirer aussi du modèle adopté avant l’irruption du numérique, modèle qui ménageait des espaces de liberté  en échange  de compensations financières, à l’image, par exemple, de la licence légale pour la diffusion radiophonique,  afin de rétablir l’équilibre entre les ayants et les usagers,  le principe même sur lequel est fondé le droit d’auteur.

La citation en filigrane

Ce résumé du texte très riche de Lawrence Lessig devait en souligner certains aspects. Et la citation, abordée à plusieurs reprises  par l’auteur pour sa démonstration, en est un qui m’est cher (réf.3). L’IABD avait proposé un amendement pour élargir la citation à l’extrait d’œuvres (réf 4). Non limité au seul écrit, il aurait permis de reproduire, non à des fins esthétiques mais  à des fins d’information (pour illustrer l’actualité mais aussi  à des fins documentaires) ou pédagogiques, des graphiques, des photos, ….  avec les mentions de la source qui s’imposent, accompagnées des liens éventuels.  Cet usage correspond également, selon moi, à l’un espace de liberté, évoqué par Lawrence Lessig dans son article. Dûment encadré, il donne sans nul doute une nouvelle vie aux œuvres, sans préjudice pour leur auteur.

Note
(*) la reproduction à des fins de conservation est autorisée par la loi française, mais uniquement pour les bibliothèques, les services d’archives et les musées ouverts au public. Ces  établissements peuvent aussi  les  communiquer au public mais au sein de leur bâtiment et sur des « postes dédiés ».

Sources
1. For the Love of Culture. Google, copyright, and our future. Lawrence Lessig, The New Republic, January 26, 2010
2. Les chercheurs français handicapés par l’absence d’exception au droit d’auteur à des fins de recherche, Actualités du droit de l’information, septembre 2008
3. La loi DADVSI… et après ?; Journée d’étude IABD
? Michèle Battisti, Documentaliste-Sciences de l’information,  2007/2 – Volume 44
4. Amendements au projet de loi Dadvsi proposés par l’IABD. Sur le site Droitauteur

» Article initialement publié sur Paralipomènes

» Photo d’illustration par laihiu sur Flickr

]]>
http://owni.fr/2010/02/06/et-si-le-droit-de-citation-devait-sauver-le-patrimoine-culturel/feed/ 1
Transparence : les dangers de l’ivresse idéologique http://owni.fr/2009/10/13/transparence-les-dangers-de-livresse-ideologique/ http://owni.fr/2009/10/13/transparence-les-dangers-de-livresse-ideologique/#comments Tue, 13 Oct 2009 17:51:14 +0000 Thierry Lhôte http://owni.fr/?p=4579 Modernity, Mirrored and Reflected Infinitely - Josiah McElheny, 2003

Modernity, Mirrored and Reflected Infinitely - Josiah McElheny, 2003

Dans un essai publié vendredi dernier, Lawrence Lessig, prend ses distances avec le mouvement pour la Transparence et le Gouvernement 2.0, tel qu’il semble prendre le chemin, aujourd’hui.
« Like the decision to go to war in Iraq, transparency has become an unquestionable bipartisan value. »
« Comme la décision de faire la guerre à l’Irak, la Transparence est devenue une valeur bipartite qui ne supporte pas la contestation. »

De la part d’un juriste, les termes employés ne sont jamais innocents, et signale de la part de l’administration, du corps politique, ainsi que des associations de soutien à ce mouvement telles que la Sunlight Foundation, un aveuglement dangereux.

La nature idéologique de ce mouvement est caractérisée aussi par l’absence de critique dans sa pensée opérationnelle, car si la Transparence est prise au sens de Transparence nue, c’est à dire d’une transparence qui n’est pas accompagnée d’une réflexion politique orientant les résultats, alors dans la recherche du bien souhaité par l’exposition des données institutionnelles au travers des technologies de l’information, des catastrophes collatérales seront inévitablement déclenchées.
Autrement dit, la Transparence risque d’être la corde avec laquelle le système démocratique risque de se pendre.

Attention, il ne s’agit pas de la part de Lawrence Lessig d’un discours radical ; la radicalité est d’abord dans le messianisme orchestré dans la société autour de cette transparence et dont les média produisent le reflet optimal ; mais pas seulement, il y a aussi la radicalité des outils technologiques employés, en l’occurrence le réseau.
Lessig constate qu’à chaque libération d’une activité humaine sur le réseau Internet, il n’y a jamais eu de retour en arrière possible à l’état précédent. Une partie du contrôle sur cette activité est alors définitivement abandonné. Ce fut vrai pour les industries de la presse et de la musique, qui, même par refus de s’engager ne firent que retarder leur transformation forcée, au risque de leur disparition.

Et c’est l’analogie principale exposée, il n’existe que deux chemins possibles maintenant : soit les acteurs actuels du changement (corps administratif, politique, associatif) accompagnent intelligemment le mouvement de Transparence, soit ils continuent comme aujourd’hui à faire confiance dans la Transparence nue et le système démocratique se retrouvera dans le meilleur des cas obligé de subir des transformations brutales imprévues, au risque même, s’il refuse de se plier à cette violence, de sombrer.

Si l’on ne prend pas en compte les limites comportementales humaines en jeu permanent avec le réseau, et que l’on décide d’ouvrir les données parlementaires et gouvernementales uniquement parce que l’on croit absolument que l’ouverture est bonne en elle-même, au lieu d’atteindre l’objectif d’une surveillance citoyenne appropriée et souhaitée, on établira des machines à créer de l’incompréhension, puis des mécaniques de ressentiment incontrôlables au sein de la société.

“La lumière du soleil (sunlight) est le meilleur des désinfectants”, telle est la devise que la Sunlight Foundation a empruntée à Louis Brandeis, et qui fait référence à l’effort de transparence pour « laisser passer les rayons du soleil » qui détruiraient définitivement la corruption au sein des organisations (messianisme américain typique), Lawrence Lessig note qu’il suffit de s’être aventuré dans un marécage pour constater que la lumière du soleil peut avoir une autre effet que celui d’un désinfectant.

Lire l’article sur le blog originel

photo par mon ami loranger – MoMA, New York, janvier 2005

]]>
http://owni.fr/2009/10/13/transparence-les-dangers-de-livresse-ideologique/feed/ 5