Technologie - đŸ€–

552 readers
15 users here now

Ici concerne le champs de domaine large de la technologie : actualités sur l'informatique, partage de programme informatique et de code, montrer vos projets Arduino, ect.

MĂ©gafil ici

founded 1 year ago
MODERATORS
126
127
 
 

Petite lecture sympatique. Il y a un point qui résonne pas mal avec le triptique sur le capitalisme américain, de la fin du XIX au XXI siÚcle ; en particulier le dernier épisode qui se concentre sur les gafams et spécifiquement la défense de Bill Gates pour éviter l'anti trust ("le bien du consommateur")

128
10
submitted 3 months ago* (last edited 3 months ago) by globcoco@mamot.fr to c/technologie@jlai.lu
 
 

Alternative au LMS. Ça existe?

@technologie

Hello.

Je me demandais si passer pas un LMS Ă©tait la seule solution pour mes projets.

Je suis une coach et je veux créer des cours en ligne pour mes clients avec texts, sketchnotes et audios.

@snoopy m'a parlé de yeswiki comme une possibilité.

Ya-til d'autres choix ke ça & moodle? Sachant que je suis une noob avec peu de connaissances et de know-how informatiques.

Merci beaucoup pour toutes réponses que vous me ferez.

💖💖💖

#lms #alternative

129
130
131
132
133
 
 

J'ai lu sur le sujet et regarder des tuto et je comprend le principe mais je ne me sens pas à l'aise avec la pratique et j'aimerai bien avoir des réponses en français, histoire d'avoir plus de chance de comprendre le jargon.

Comment puis-je m'assurer que je ne télécharge pas un virus ou un fichier corrompu d'une façon ou d'une autre ? Est-ce que le nombre de personnes qui le partage est un bon indicateur ?
Si je veux tĂ©lĂ©charger un fichier et ne pas le repartager, est-ce une option ? Et si je veux charger un fichier prĂ©sent sur mon ordinateur est-ce une manƓuvre complĂštement diffĂ©rente ?
Si, par erreur, je téléchargeais un film que je n'ai pas en DVD, est-ce que je cours un risque quelconque de me faire pincer ? Un VPN est-il suffisant pour mitiger ce risque ?
En parlant de VPN, est-ce que les moteurs de recherche de torrent fonctionne bien ? Est-ce que la localisation affecte leurs résultats ? Est-il plus efficace de connaßtre directement des noms de site ?

J'ai téléchargé qBittorent mais avez-vous des recommandations de logiciels, d'outils ou de site ?

Je suis particuliÚrement intéressé par le téléchargement de fichier de sous-titre. Est-ce que les torrents de sous-titres sont communs ? Avez-vous des adresses (?/site?/torrent? j'ai pas le vocabulaire) à me recommander ?
D'ailleurs si vous pouviez me donner un peu de vocabulaire, je ne dirais pas non. Je pourrais peut-ĂȘtre comprendre les conversations cryptiques sur !piracy@lemmy.dbzer0.com et la moitiĂ© des tuto que j'ai lu sur le sujet.

Merci pour votre aide.

Édit : Merci à tout le monde !
Je prendrai le temps de lire vos réponses aux calmes et reposer les questions qui me reviennent derriÚre mais rien qu'en survolant le fil, j'ai appris et compris des tas de choses

134
 
 

Pas convaincu, mais on peut rĂȘver :-)

135
 
 

cross-posted from: https://sh.itjust.works/post/23097473

Un spectre hante l’AmĂ©rique — le spectre du communisme. Cette fois, il est numĂ©rique. « Le communisme gĂ©rĂ© par intelligence artificielle pourrait-il fonctionner ? », demande Daron Acemoğlu, Ă©conomiste au Massachusetts Institute of Technology (MIT), tandis que le capital-risqueur Marc Andreessen s’inquiĂšte de savoir si la Chine s’apprĂȘte Ă  crĂ©er une intelligence artificielle (IA) communiste (1). MĂȘme le trublion rĂ©publicain Vivek Ramaswamy y va de son analyse en affirmant sur X que l’IA procommuniste constitue une menace comparable Ă  celle du Covid-19.

Mais qui sait vraiment, au milieu de la panique gĂ©nĂ©rale, de quoi l’on parle ? Une intelligence artificielle communiste suivrait-elle le modĂšle chinois, avec des plates-formes calquĂ©es sur celles des grandes sociĂ©tĂ©s amĂ©ricaines et soumises Ă  un Ă©troit contrĂŽle Ă©tatique, ou plutĂŽt une approche de type État social Ă  l’europĂ©enne, avec un dĂ©veloppement centralisĂ© aux mains d’institutions publiques ?

La seconde option prĂ©sente un certain attrait, d’autant plus que la course Ă  l’IA tend aujourd’hui Ă  faire passer la rapiditĂ© avant la qualitĂ© — on a pu s’en apercevoir en mai dernier lorsque la fonction AI Overviews de Google a recommandĂ© de mettre de la colle dans ses pizzas et de manger des pierres (2). Un financement public de l’IA gĂ©nĂ©rative, qui s’accompagnerait d’une sĂ©lection rigoureuse des donnĂ©es ainsi que d’une supervision exigeante, pourrait accroĂźtre la qualitĂ© des outils et le prix facturĂ© aux entreprises clientes, garantissant ainsi une meilleure rĂ©munĂ©ration des crĂ©ateurs de contenu.

Pour autant, chercher Ă  dĂ©velopper une Ă©conomie socialisĂ©e de l’intelligence artificielle, n’est-ce pas encore capituler face Ă  la Silicon Valley ? Une IA « communiste » ou « socialiste » doit-elle se limiter Ă  dĂ©cider qui dĂ©tient et contrĂŽle les donnĂ©es ou Ă  modifier les modĂšles et les infrastructures informatiques ? Ne pourrait-elle ĂȘtre porteuse de transformations plus profondes ?

Deux exemples puisĂ©s dans l’histoire contemporaine suggĂšrent une rĂ©ponse positive. Le premier se nomme CyberSyn, l’initiative visionnaire du prĂ©sident chilien Salvador Allende (3). PilotĂ© par un consultant britannique charismatique du nom de Stafford Beer, ce projet aussi ambitieux qu’éphĂ©mĂšre (1970-1973) visait Ă  inventer une maniĂšre plus efficace de gĂ©rer l’économie en mettant Ă  profit les modestes ressources informatiques du pays.

CyberSyn, souvent qualifiĂ© d’« Internet socialiste », s’appuyait sur le rĂ©seau chilien de tĂ©lex pour faire remonter l’ensemble des donnĂ©es de production des entreprises nationalisĂ©es vers un ordinateur central basĂ© Ă  Santiago. Toutefois, dans le souci d’éviter les Ă©cueils de la centralisation soviĂ©tique, il introduisait une forme d’apprentissage automatique avant l’heure destinĂ©e Ă  donner plus de pouvoir aux salariĂ©s.

Des techniciens gouvernementaux se rendaient dans les usines et travaillaient en lien avec les ouvriers pour schĂ©matiser les processus de production et de gestion tels qu’ils Ă©taient appliquĂ©s sur le terrain. Ces prĂ©cieuses informations, inaccessibles aux dirigeants dans une entreprise capitaliste, Ă©taient ensuite traduites en modĂšles d’exploitation, puis surveillĂ©es Ă  l’aide de logiciels de statistiques spĂ©cifiques. Les ouvriers-managers pouvaient ainsi ĂȘtre avisĂ©s presque en temps rĂ©el des problĂšmes qui se prĂ©sentaient.

Au cƓur de CyberSyn se trouvait la vision d’un systĂšme hybride dans lequel la puissance de calcul amplifiait l’intelligence humaine. Transformer des connaissances implicites en un savoir formalisĂ© et concret devait permettre aux travailleurs — la classe nouvellement arrivĂ©e aux commandes du pays — d’agir avec assurance et Ă  bon escient quelle que fĂ»t leur expĂ©rience antĂ©rieure en matiĂšre de gestion ou d’économie. Y aurait-il lĂ  de quoi nous guider dans notre quĂȘte d’une IA socialiste ?

Pour explorer plus en avant la signification de cette idĂ©e singuliĂšre, il faut s’intĂ©resser aux aventures de Warren Brodey, psychiatre passĂ© Ă  la cybernĂ©tique avant de devenir hippie, aujourd’hui ĂągĂ© de 100 ans. Une rationalitĂ© Ă©cologique

À la fin des annĂ©es 1960, grĂące aux deniers d’un riche associĂ©, M. Brodey crĂ©e Ă  Boston un laboratoire expĂ©rimental baptisĂ© Environmental Ecology Lab (EEL). Quelques stations de mĂ©tro plus loin, ses amis Marvin Minsky et Seymour Papert, du MIT — une institution Ă  laquelle il a Ă©tĂ© affiliĂ© un temps —, dĂ©veloppent des projets d’IA qui, selon lui, font fausse route. Minsky et Papert partent du principe que le raisonnement humain est guidĂ© par un ensemble de rĂšgles et de processus algorithmiques abstraits qu’il suffirait de dĂ©nombrer puis de dĂ©chiffrer pour pouvoir doter un ordinateur d’une « intelligence artificielle ».

À rebours de cette vision, Brodey et ses cinq collaborateurs pensent que l’intelligence, loin d’ĂȘtre enfermĂ©e dans nos cerveaux, naĂźt des interactions avec notre environnement. C’est une intelligence Ă©cologique. RĂšgles et mĂ©canismes abstraits n’ont aucun sens en soi ; tout est dans le contexte. Un exemple simple leur sert Ă  illustrer cette thĂ©orie : l’injonction Ă  se dĂ©shabiller ne signifie pas du tout la mĂȘme chose selon qu’elle est profĂ©rĂ©e par un mĂ©decin, un amant ou un inconnu rencontrĂ© dans une ruelle sombre.

Concevoir une IA capable de saisir de façon autonome ces nuances subtiles leur paraĂźt relever de la gageure. En plus de modĂ©liser les processus mentaux humains, il faudrait demander aux ordinateurs de maĂźtriser une infinie variĂ©tĂ© de concepts, de comportements et de situations ainsi que l’ensemble de leurs corrĂ©lations — autrement dit, de comprendre dans son intĂ©gralitĂ© le cadre culturel de la civilisation humaine, seul Ă  mĂȘme de produire du sens.

PlutĂŽt que de s’épuiser Ă  poursuivre ce but en apparence inatteignable, l’équipe de Brodey rĂȘve de mettre les ordinateurs et les technologies cybernĂ©tiques au service des humains pour leur permettre d’explorer mais aussi d’enrichir leur environnement, et surtout leur propre personne. Dans cette optique, les technologies de l’information sont non seulement des outils pour accomplir des tĂąches, mais des instruments pour penser le monde et interagir avec lui. Imaginez par exemple une douche cybernĂ©tique rĂ©active qui deviserait avec vous du changement climatique et de la raretĂ© des ressources en eau, ou encore une voiture qui vous parlerait de l’état du systĂšme de transport public pendant votre trajet. Le laboratoire invente mĂȘme une combinaison qui, quand vous la revĂȘtez pour danser, modifie la musique en temps rĂ©el, mettant en Ă©vidence les liens complexes entre sons et mouvements.

L’Environmental Ecology Lab prend rĂ©solument le contrepied de l’école de Francfort et de sa critique de la raison instrumentale : c’est le capitalisme industriel, non pas la technologie, qui prive notre monde de sa dimension Ă©cologique et nous oblige Ă  nous tourner vers la rationalitĂ© moyens-fins que dĂ©noncent Theodor Adorno, Max Horkheimer et Herbert Marcuse. Pour restaurer cette dimension perdue, il entend nous faire prendre conscience, Ă  l’aide de capteurs et d’ordinateurs, des complexitĂ©s cachĂ©es derriĂšre les aspects de l’existence qui nous paraissent les plus banals.

Les idĂ©es fantasques de Brodey ont laissĂ© une empreinte profonde mais, paradoxalement, quasi invisible sur notre culture numĂ©rique. Durant sa brĂšve carriĂšre au MIT, Brodey prit sous son aile un certain Nicholas Negroponte, techno-utopiste d’avant-garde dont les travaux au sein du MIT Media Lab ont largement contribuĂ© Ă  dĂ©finir les termes du dĂ©bat autour de la rĂ©volution numĂ©rique (4). Pourtant, les philosophies respectives des deux hommes diffĂ©raient du tout au tout. JPEG - 91.9 ko Laurent Millet. – De la sĂ©rie « Euclide », 2021 © Laurent Millet - www.laurent-millet.com - Galerie Binome, Paris

Brodey pensait que les appareils cybernĂ©tiques de nouvelle gĂ©nĂ©ration devaient se distinguer prioritairement par leur « rĂ©activitĂ© », un moyen de faciliter le dialogue homme-machine et d’aiguiser notre conscience Ă©cologique. Il postulait que les individus aspiraient sincĂšrement Ă  Ă©voluer et concevait l’ordinateur comme un alliĂ© dans cette entreprise de transformation permanente. Son poulain Negroponte rĂ©adapta le concept pour le rendre plus maniable : les machines avaient pour fonction premiĂšre de comprendre, prĂ©dire et satisfaire nos besoins immĂ©diats. En somme, Negroponte cherchait Ă  crĂ©er des machines originales et excentriques quand Brodey, convaincu que les environnements intelligents — et l’intelligence tout court — ne pouvaient exister sans les gens, cherchait Ă  crĂ©er des humains originaux et excentriques. La Silicon Valley adopta la vision de Negroponte.

Un autre Ă©lĂ©ment singularisait Brodey par rapport Ă  ses pairs : alors que les informaticiens de l’époque voyaient dans l’IA un outil d’augmentation de l’humain — les machines exĂ©cutant les basses besognes pour stimuler la productivitĂ© —, lui visait l’amĂ©lioration de l’humain — un concept qui allait bien au-delĂ  de la seule efficacitĂ© (5).

La distinction entre ces deux paradigmes est subtile, mais cruciale. L’augmentation, c’est lorsque vous utilisez le GPS de votre tĂ©lĂ©phone portable pour vous repĂ©rer en terrain inconnu : cela permet d’arriver plus vite et plus facilement Ă  destination. Le gain reste toutefois Ă©phĂ©mĂšre. Que l’on vous retire cette bĂ©quille technologique, et vous vous retrouvez plus dĂ©muni encore. L’amĂ©lioration consiste Ă  se servir de la technologie pour dĂ©velopper de nouvelles compĂ©tences — ici, il s’agirait d’affiner son sens innĂ© de l’orientation en recourant Ă  des techniques avancĂ©es de mĂ©morisation ou en apprenant Ă  dĂ©chiffrer les signes de la nature.

En substance, l’augmentation nous retire des capacitĂ©s au nom de l’efficacitĂ©, tandis que l’amĂ©lioration nous en fait acquĂ©rir de nouvelles et enrichit nos interactions avec le monde. De cette diffĂ©rence fondamentale dĂ©coule la maniĂšre dont nous intĂ©grons la technologie dans nos vies pour nous transformer soit en opĂ©rateurs passifs, soit en artisans crĂ©ateurs.

Brodey s’était forgĂ© ces convictions en participant, en sa qualitĂ© de psychiatre, Ă  un programme plus ou moins secret Ă©laborĂ© par la Central Intelligence Agency (CIA) au dĂ©but des annĂ©es 1960. L’agence amĂ©ricaine avait eu la brillante idĂ©e d’enseigner le russe Ă  une Ă©quipe de non-voyants triĂ©s sur le volet, puis de leur faire Ă©couter des communications soviĂ©tiques interceptĂ©es. Elle faisait l’hypothĂšse que, en raison de leur cĂ©citĂ©, leurs autres sens Ă©taient plus affĂ»tĂ©s que ceux d’analystes dotĂ©s de la vue. AprĂšs plusieurs annĂ©es Ă  travailler avec ces personnes dans le but d’identifier les indices internes et externes — chaleur corporelle, taux d’humiditĂ© ambiante, qualitĂ© de la lumiĂšre
 — qu’elles utilisaient pour enrichir leurs perceptions, Brodey dĂ©couvrit que leur aptitude au perfectionnement des sens Ă©tait en fait universellement partagĂ©e.

Si ce programme d’amĂ©lioration qui nous prĂȘtait Ă  tous une sensibilitĂ© artistique en puissance Ă©tait rĂ©solument poĂ©tique, Brodey, en incorrigible pragmatique, le jugeait impossible Ă  mettre en Ɠuvre sans l’aide des ordinateurs. Lorsqu’il tenta de l’importer au MIT pour en faire un domaine de recherche officiel, il se heurta Ă  une opposition farouche, et pas seulement de la part de l’élite conservatrice de l’IA. D’autres y lurent aussi de sombres connotations nazies : Brodey ne suggĂ©rait-il pas de rĂ©aliser des expĂ©riences sur des humains ? Cette levĂ©e de boucliers l’obligea finalement Ă  se tourner vers des donateurs privĂ©s.

La nuance profonde entre augmentation et amĂ©lioration de l’humain — et ses consĂ©quences en matiĂšre d’automatisation — n’est apparue de maniĂšre Ă©vidente que des dĂ©cennies plus tard. L’augmentation vise Ă  crĂ©er des machines qui pensent, ressentent comme nous, faisant naĂźtre le risque de rendre nos compĂ©tences caduques. Les outils actuels fondĂ©s sur l’IA gĂ©nĂ©rative ne se proposent pas seulement d’augmenter le travail des artistes et des auteurs, mais menacent de les remplacer purement et simplement. À l’inverse, les technologies intelligentes de Brodey ne devaient pas automatiser l’humanitĂ© jusqu’à la rendre obsolĂšte ni standardiser les existences, elles promettaient d’enrichir nos goĂ»ts et d’étendre nos facultĂ©s, autrement dit de rehausser l’expĂ©rience humaine au lieu de l’amoindrir. LibĂ©rer les capacitĂ©s humaines en sommeil

C’était un point de vue courageux dans le contexte de l’époque, alors que la majoritĂ© des reprĂ©sentants de la contre-culture envisageaient la technologie comme une force anonyme et sans Ăąme dont il valait mieux se mĂ©fier ou, dans les communautĂ©s prĂŽnant le « retour Ă  la terre », comme un instrument d’émancipation uniquement individuelle. Lorsqu’il formule ces idĂ©es au mitan des annĂ©es 1960, Brodey voit sa vie professionnelle et familiale se dĂ©liter. Ses prises de position ne cessent de le porter vers les franges les plus avant-gardistes de l’establishment amĂ©ricain. Comme beaucoup au sein de la mouvance hippie, il ne reconnaĂźt pas la lĂ©gitimitĂ© du politique, ce qui l’empĂȘche de traduire ses thĂ©ories en revendications.

À l’autre bout de la planĂšte, un philosophe soviĂ©tique du nom d’Evald Ilyenkov, nĂ© comme lui en 1924, se pose des questions tout Ă  fait comparables, mais Ă  l’intĂ©rieur du cadre conceptuel du « marxisme crĂ©atif ». Ses travaux permettent de mieux comprendre ce que recouvre le concept d’amĂ©lioration de l’humain dans la pensĂ©e communiste et socialiste.

Comme Brodey, Ilyenkov a beaucoup travaillĂ© avec des non-voyants. De ses Ă©tudes, il a conclu que les capacitĂ©s cognitives et sensorielles dĂ©coulent de la socialisation et des interactions avec la technologie. Pour peu que nous trouvions les bons environnements pĂ©dagogiques et technologiques, nous pouvons cultiver des compĂ©tences que nous possĂ©dons Ă  l’état latent. Le communisme vise ainsi, sous la houlette de l’État, Ă  libĂ©rer les capacitĂ©s humaines en sommeil afin que chacun puisse rĂ©aliser pleinement son potentiel, indĂ©pendamment des barriĂšres sociales ou naturelles.

ExcĂ©dĂ© par la fascination des bureaucrates soviĂ©tiques pour l’IA Ă  l’amĂ©ricaine, Ilyenkov en propose une critique particuliĂšrement convaincante dans un article de 1968 intitulĂ© « Idoles et idĂ©aux » (6). À ses yeux, mettre au point une intelligence artificielle s’apparentait Ă  construire une Ă©norme et ruineuse usine de sable artificiel en plein cƓur du Sahara. MĂȘme en admettant qu’elle fonctionne Ă  la perfection, il Ă©tait absurde de ne pas profiter plutĂŽt de la ressource naturelle disponible en abondance, au-delĂ  de ses murs.

PrĂšs de soixante ans plus tard, la dĂ©nonciation d’Ilyenkov n’a rien perdu de son actualitĂ©. Nous sommes toujours coincĂ©s dans ce dĂ©sert Ă  dĂ©fendre le bien-fondĂ© de l’usine, sans voir que personne, hormis les Ă©tats-majors et les architectes de l’ordre Ă©conomique, n’en a vraiment besoin. Brodey utilisait par ailleurs une autre image, empruntĂ©e Ă  Marshall McLuhan : ses technologies Ă©cologiques avaient le pouvoir de nous dessiller, comme un poisson qui prendrait subitement conscience de l’existence de l’eau. De la mĂȘme façon, il est temps que quelqu’un rĂ©vĂšle aux obsĂ©dĂ©s de l’IA qu’ils sont entourĂ©s d’un gigantesque gisement d’intelligence, humaine, crĂ©ative, imprĂ©visible et poĂ©tique.

Reste la grande question : pourrons-nous nous amĂ©liorer rĂ©ellement si nous persistons Ă  manier des concepts comme l’IA, qui semble contredire l’idĂ©e mĂȘme de dĂ©veloppement humain ?

L’ambition de construire une intelligence artificielle n’a pas fait qu’engloutir des milliards de dollars ; pour certains, elle a aussi eu un coĂ»t sur le plan personnel. L’intransigeance des jeunes loups qui ont prĂ©sidĂ© Ă  son expansion — avec leurs levĂ©es de fonds tous azimuts et leur dĂ©finition rigide des frontiĂšres de la discipline — a ainsi conduit Ă  marginaliser des penseurs visionnaires comme Stafford Beer et Warren Brodey, que l’étiquette « intelligence artificielle » a toujours mis mal Ă  l’aise.

Les deux hommes, qui eurent l’occasion de se rencontrer peu de temps avant la mort du premier en 2002, Ă©taient issus de milieux diamĂ©tralement opposĂ©s. Ancien chef d’entreprise, Beer Ă©tait membre du trĂšs Ă©litiste Club Athenaeum britannique ; Brodey avait grandi Ă  Toronto dans une famille juive de classe moyenne. Cela ne les empĂȘchait pas de vouer un mĂȘme mĂ©pris Ă  l’IA en tant que discipline scientifique et au dogmatisme de ses praticiens. Ils partageaient aussi un pĂšre spirituel : Warren McCulloch, gĂ©ant de la cybernĂ©tique.

La cybernĂ©tique Ă©tait nĂ©e juste aprĂšs la seconde guerre mondiale sous les auspices du mathĂ©maticien Norbert Wiener. De nombreux chercheurs, pionniers dans leurs champs respectifs (mathĂ©matiques, neurophysiologie, ingĂ©nierie, biologie, anthropologie
), s’étaient aperçus d’une difficultĂ© commune : tous se heurtaient Ă  des processus complexes et non linĂ©aires dans lesquels il devenait impossible de distinguer les causes des effets — l’effet apparent d’un processus naturel ou social donnĂ© pouvant se rĂ©vĂ©ler simultanĂ©ment liĂ© Ă  un autre.

ArticulĂ©e autour de cette idĂ©e de causalitĂ© mutuelle et d’imbrication entre des phĂ©nomĂšnes apparemment indĂ©pendants, la cybernĂ©tique Ă©tait moins une discipline scientifique qu’une philosophie. Ses grands penseurs n’abandonnaient pas leur domaine de recherche initial, mais enrichissaient leurs analyses d’une perspective nouvelle. L’approche interdisciplinaire permettait d’apprĂ©hender les processus Ă  l’Ɠuvre dans les machines, les cerveaux humains et les sociĂ©tĂ©s au moyen d’un mĂȘme ensemble de concepts.

Quand l’intelligence artificielle fit son apparition au milieu des annĂ©es 1950, elle se posa comme une Ă©manation naturelle de la cybernĂ©tique ; en rĂ©alitĂ©, elle marquait plutĂŽt une rĂ©gression. La cybernĂ©tique avait voulu s’inspirer des machines pour mieux comprendre l’intelligence humaine, et non pour la reproduire. DĂ©complexĂ©e, la discipline Ă©mergente de l’IA entreprit d’ouvrir une nouvelle voie en fabriquant des machines capables de « penser » comme nous. L’objectif n’était pas de percer les mystĂšres de la cognition humaine, mais de satisfaire les exigences de son principal client : l’armĂ©e. La recherche fut immĂ©diatement dictĂ©e par les impĂ©ratifs de dĂ©fense, ce qui allait se rĂ©vĂ©ler dĂ©terminant pour son Ă©volution future.

Ainsi, certains des projets initiaux inspirĂ©s par la philosophie cybernĂ©tique, comme la tentative de fabriquer des rĂ©seaux de neurones artificiels, furent rapidement rĂ©orientĂ©s vers des fins militaires. Soudains ces rĂ©seaux ne viseraient plus Ă  dĂ©mĂȘler les intrications de la pensĂ©e mais Ă  analyser des images aĂ©riennes pour localiser des navires ennemis ou des pĂ©troliers. La quĂȘte ambitieuse d’une intelligence artificielle a ainsi fini par recouvrir d’un vernis de prestige scientifique des contrats militaires banals.

Dans ce contexte, l’interdisciplinaritĂ© n’était pas de mise. L’IA Ă©tait dominĂ©e par de jeunes et brillants mathĂ©maticiens ou informaticiens qui trouvaient la cybernĂ©tique trop abstraite, trop philosophique et surtout potentiellement subversive. Il faut dire qu’entre-temps Norbert Wiener s’était mis Ă  soutenir les luttes syndicales et Ă  critiquer l’armĂ©e, ce qui n’était pas de nature Ă  attirer les financements du Pentagone. JPEG - 89.4 ko Laurent Millet. – De la sĂ©rie « Euclide », 2021 © Laurent Millet - www.laurent-millet.com - Galerie Binome, Paris

L’intelligence artificielle, qui promettait d’« augmenter » les opĂ©rateurs humains et d’élaborer des armes autonomes, ne souffrait pas d’un tel problĂšme d’image. Elle fut d’emblĂ©e une discipline scientifique Ă  part. Alors que les sciences traditionnelles cherchent Ă  comprendre le monde, en s’aidant parfois de la modĂ©lisation, les pionniers de l’IA dĂ©cidĂšrent de construire des modĂšles simplifiĂ©s d’un phĂ©nomĂšne du monde rĂ©el — l’intelligence —, puis de nous convaincre que rien ne diffĂ©renciait les premiers du second. Un peu comme si des gĂ©ographes renĂ©gats crĂ©aient une nouvelle discipline, le « territoire artificiel », en essayant de faire croire qu’avec les avancĂ©es de la technologie carte et territoire ne seraient bientĂŽt plus qu’une seule et mĂȘme chose.

À de nombreux Ă©gards, la trajectoire — et la tragĂ©die — de l’IA durant la guerre froide ressemble Ă  celle de la science Ă©conomique, en particulier amĂ©ricaine. L’économie aux États-Unis avait fait l’objet d’une pensĂ©e bouillonnante, plurielle, en phase avec les dynamiques du monde rĂ©el, consciente que le pouvoir et les institutions (allant des syndicats Ă  la RĂ©serve fĂ©dĂ©rale) avaient une influence sur la production ou la croissance. Les prioritĂ©s de la guerre froide en firent une discipline obsĂ©dĂ©e par des modĂšles abstraits — optimisation, Ă©quilibre, thĂ©orie des jeux
 — dont la pertinence dans la vraie vie n’avait qu’une importance secondaire. MĂȘme si certaines applications numĂ©riques, comme la publicitĂ© en ligne ou les services de voitures de transport avec chauffeur (VTC), s’appuient aujourd’hui sur ces constructions mathĂ©matiques, la validitĂ© ponctuelle d’une approche biaisĂ©e ne suffit pas Ă  la racheter. Le fait est que l’économie orthodoxe moderne n’a pas grand-chose Ă  proposer pour rĂ©gler des problĂšmes tels que les inĂ©galitĂ©s ou le changement climatique, si ce n’est des solutions fondĂ©es sur le marchĂ©.

L’analyse vaut aussi pour l’intelligence artificielle, qui, bien que dĂ©crite comme un triomphe technologique, est souvent un euphĂ©misme pour militarisme ou capitalisme. Ses hĂ©rauts ont beau reconnaĂźtre la nĂ©cessitĂ© d’instaurer un minimum de contrĂŽle et de rĂ©glementation, ils peinent Ă  imaginer un futur dans lequel notre conception de l’intelligence ne serait pas dominĂ©e par l’IA. DĂšs le dĂ©part, celle-ci a moins Ă©tĂ© une science — qui se caractĂ©rise par des objectifs finaux non prĂ©dĂ©terminĂ©s — qu’un hybride de religion et d’ingĂ©nierie. Son dessein ultime Ă©tait de crĂ©er un systĂšme informatique universel capable d’accomplir tout type de tĂąches sans y avoir Ă©tĂ© explicitement entraĂźnĂ© — une dĂ©cision que l’on connaĂźt dĂ©sormais sous le nom d’intelligence artificielle gĂ©nĂ©rale (IAG).

Ici intervient un autre parallĂšle avec l’économie : durant la guerre froide, l’IAG fut envisagĂ©e de la maniĂšre dont les Ă©conomistes concevaient le libre marchĂ©, c’est-Ă -dire comme une force autonome, autorĂ©gulatrice, Ă  laquelle l’humanitĂ© serait bien forcĂ©e de s’adapter. D’un cĂŽtĂ©, la pensĂ©e Ă©conomique escamote le rĂŽle qu’ont jouĂ© la violence coloniale, le patriarcat et le racisme dans l’expansion du capitalisme, comme si se prolongeait naturellement l’inclination humaine « à trafiquer [et] Ă  faire des trocs et des Ă©changes d’une chose pour une autre » (7), selon la cĂ©lĂšbre formule d’Adam Smith. De l’autre, le rĂ©cit traditionnel des origines de l’IA reconnaĂźt les apports de la cybernĂ©tique, des mathĂ©matiques, de la logique, mais reste muet concernant le contexte historique ou gĂ©opolitique. Comme si l’on qualifiait simplement l’eugĂ©nisme et la phrĂ©nologie de branches de la gĂ©nĂ©tique et de la biologie, sans rien dire de leur dimension raciste. N’oublions pas, souligne Yarden Katz dans son remarquable essai Artificial Whiteness(7), que l’intelligence artificielle n’aurait jamais existĂ© sans le militarisme, le corporatisme et le patriotisme exacerbĂ© de la guerre froide.

Un concept Ă  ce point perverti pourra-t-il un jour ĂȘtre remis au service d’ambitions progressistes ? N’est-il pas aussi vain d’appeler Ă  une « intelligence artificielle communiste » que de rĂȘver d’ateliers clandestins Ă  visage humain ou d’instruments de torture dĂ©licieux ?

Les expĂ©riences de Stafford Beer et de Warren Brodey suggĂšrent que nous ferions mieux de renoncer au fantasme de l’intelligence artificielle socialiste et de nous concentrer sur la dĂ©finition d’une politique technologique socialiste post-IA. PlutĂŽt que d’essayer d’humaniser les produits existants en leur imaginant des applications de gauche ou en inventant de nouveaux modĂšles de propriĂ©tĂ© Ă©conomique, nous devons ouvrir Ă  tous, sans considĂ©ration de classe, d’ethnicitĂ© ni de genre, l’accĂšs Ă  des institutions, infrastructures et technologies qui favorisent l’autonomie crĂ©atrice et permettent de rĂ©aliser pleinement ses capacitĂ©s. En d’autres termes, nous devons amorcer la transition de l’humain augmentĂ© Ă  l’humain amĂ©liorĂ©.

Vivre dans un ballon, pas dans une bulle

Une telle politique s’appuierait sur les composantes de l’État-providence qui sont le plus Ă©loignĂ©es des mots d’ordre conservateurs du capitalisme : l’éducation et la culture, les bibliothĂšques, les universitĂ©s et les diffuseurs publics. Elle ouvrirait ainsi la voie Ă  une politique Ă©ducative et culturelle socialiste, au lieu de renforcer l’économie nĂ©olibĂ©rale comme le fait l’approche actuelle.

Brodey comprit lui-mĂȘme assez rapidement qu’il ne pouvait y avoir d’IA socialiste sans socialisme. DĂšs le dĂ©but des annĂ©es 1970, il reconnut que le contexte de la guerre froide aux États-Unis vidait de tout sens sa quĂȘte d’« amĂ©lioration humaine » et de « technologie Ă©cologique » — sans compter qu’il mettait un point d’honneur Ă  refuser l’argent du Pentagone, et mĂȘme d’institutions comme le MIT, pour marquer son opposition Ă  la guerre du Vietnam.

À en croire Negroponte, Brodey ne voulut en effet jamais entendre parler d’une titularisation au MIT. Le confort ne l’intĂ©ressait pas. Il prĂ©fĂ©ra aller se construire une maison Ă  base de mousse et de ballons en pleine forĂȘt, dans le New Hampshire. Un environnement « rĂ©actif et intelligent » qui lui convenait. Mais cela allait trop loin, mĂȘme pour ses admirateurs. « Tout le monde n’aspire pas Ă  vivre dans un ballon », ironisa Negroponte Ă  l’époque.

La pensĂ©e de Brodey Ă©tait imprĂ©gnĂ©e d’utopisme. Lui et son plus proche collĂšgue, Avery Johnson, nourrissaient l’espoir que l’industrie amĂ©ricaine adopterait leur vision — des produits rĂ©actifs et interactifs propres Ă  faire naĂźtre de nouveaux goĂ»ts et centres d’intĂ©rĂȘt chez l’utilisateur plutĂŽt qu’à surfer sur son dĂ©sir consumĂ©riste. Mais les entreprises optĂšrent pour la version plus conservatrice de Negroponte, dans laquelle l’interactivitĂ© permet surtout aux machines d’identifier nos angoisses et de nous faire acheter davantage.

En 1973, dĂ©sabusĂ©, Brodey partit s’installer en NorvĂšge. Il y ressurgit en maoĂŻste, membre actif du Parti communiste des travailleurs, et se rendit mĂȘme en Chine afin d’échanger avec des ingĂ©nieurs Ă  propos de son concept de « technologies rĂ©actives ». Pour un homme qui avait Ă©tĂ© Ă©troitement impliquĂ© dans des projets de l’armĂ©e, de la National Aeronautics and Space Administration (NASA) et de la CIA pendant la guerre froide, ce n’était pas un revirement anodin.

D’aprĂšs les longues conversations que j’ai pu avoir avec lui ces dix derniĂšres annĂ©es en NorvĂšge, oĂč il vit encore, Brodey incarne toujours Ă  merveille le projet d’évolution ouverte qu’il dĂ©fendait dans les annĂ©es 1960. À l’évidence, l’amĂ©lioration de l’humain a fonctionnĂ© pour lui. Cela signifie qu’elle pourrait peut-ĂȘtre fonctionner pour nous tous — Ă  condition que nous choisissions les technologies adĂ©quates et que nous cultivions une bonne dose de scepticisme Ă  l’égard de l’intelligence artificielle, communiste ou non.

(Traduit de l’amĂ©ricain par Élise Roy.)

Evgeny Morozov

136
137
 
 

Des commerces de Talence, prÚs de Bordeaux, testent le paiement des achats en cryptomonnaies. La ville et ses associations de commerçants se sont associées à une start-up française pour concrétiser ce projet encore inédit à cette échelle en France. Mode d'emploi.

138
139
140
141
 
 

Pendant la crise "Microsoft", Fabrice Epelboin place quelques billes sur GNU/Linux et les logiciels libres.

Source : https://piaille.fr/@framaka@mastodon.social/112824026656083234

142
143
144
 
 

👋

J’utilise actuellement OVH comme Registrar (comme Registrar, je prĂ©cise, j’hĂ©berge les zones moi-mĂȘmes chez moi et sur un VPS louĂ© ailleurs) et il se trouve qu’ils ont plein de bogues relous. Le dernier en date : impossible d’activer DNSSEC (via le transfert DS) si un des Name Servers est en IPv6.

VoilĂ , ça commence Ă  me pĂ©ter les noix donc je cherche un autre registrar qui seraient moins pĂ©nibles. Sachant que je me fous complĂštement de ce qu’il hĂ©berge puisque je le fais moi-mĂȘme, je cherche donc essentiellement du prix et moins d’emmerdes.

Est-ce que vous auriez des recommandations Ă©ventuelles ?

145
 
 

Titre Clic BĂȘte : c'est plus une solution dĂ©ployĂ©e sous Windows que Windows le problĂšme.

146
147
148
149
 
 

Traduction FR:

Firefox est juste une autre compagnie amĂ©ricaine avec un autocollant "open source". La mise Ă  jour version 128 auto-coche une fonctionnalitĂ© qui reprĂ©sente une petite brĂȘche dans votre vie privĂ©e. Si vous utilisez toujours firefox au moins faites-le avec une version sĂ©curisĂ©e! Nous utilisons librewolf qui est basĂ© sur firefox. (Oui, nous savons, un navigateur considĂ©rĂ© comme stable et non amĂ©ricain est considĂ©rĂ© comme "futuriste" en europe).

150
view more: â€č prev next â€ș