Précision importante : il n’est pas ici question de voix préenregistrées avec lesquelles il est impossible d’interagir. Dans cet article, nous faisons référence à des IA capables de tenir une conversation et donc de réagir à vos paroles. Heureusement, quelques indices nous permettent de les détecter. Voici lesquels.
[...]
Si vous avez de sérieux doutes quant à la nature de votre interlocuteur, posez-lui une question qui n’a aucun sens. Si vous avez affaire à une IA, celle-ci ne réagira pas et reviendra à son sujet comme si de rien n’était.
M'en fous, je raccroche comme un malpropre, IA ou pas.
Extrait : "Une nouvelle étude bouleverse tout ce que nous pensions savoir sur la consommation énergétique de ChatGPT. Les chiffres sont formels : l’IA est bien plus économe que prévu."
De ce que j'en ai compris, ce ne sont pas tant les requêtes qui consomment de l'énergie, mais le fait de faire tourner des tas de serveurs 24/24h (appréciez la justesse du vocabulaire technique), et l'énergie dépensée pour le "fonctionnement" de l'IA : "apprentissage", etc. Pas sa simple "consultation".
Il va p'têt falloir que ça rentre : LES-IA-RACONTENT-DES-CONNERIES.
Pas tout le temps, des fois elles dysfonctionnent et disent la vérité.
Depuis quelques jours, mon esprit malade, faisant le parallèle entre "l'ère de la post-vérité" ouverte à peu près lors de la première élection de Trump et l'avénement des robots culinaires spécialistes des pizzas à la colle, a pondu une synthèse lapidaire que je vous livre : pour l'IA comme pour Trump, le vrai est un moment du faux.
Plus d’une vingtaine d’organisations réunies au sein de la coalition Hiatus, parmi lesquelles Attac, La Quadrature du Net et la Ligue des droits de l’homme, estiment, dans une tribune au « Monde », qu’il faut résister au déploiement massif de l’IA, au nom des droits humains, sociaux et environnementaux.
En nous libérant de l'effort à faire pour obtenir un résultat, la technologie nous prive de l'entraînement à la compétence qui en dépendait. Si la compétence en question était ultra spécifique et inutile ailleurs, ok (allumeur de réverbères, bourreau, sonneur de cloche, lavandière ...) mais quand ce sont des capacités cognitives de base et desquelles dérivent tout un arbre de compétences diverses, on devrait pour le moins être prudent.
Du coup, si les états poussent autant vers l'IA et le cortège de régressions cognitives qu'elles supposent... ça pue un peu, non ? Grâce la réduction de nos capacités mémorielles et déductives, de notre langage et de notre raisonnement, L'IA pourra nous régurgiter la propagande qu'on lui aura donné à bouffer et on la prendra pour parole d'évangile.
MAIS C'EST EXACTEMENT CA.
Le problème c'est qu'actuellement, quand tu expliques ça, tu passes pour l'emmerdeur / complotiste / celui-qui-refuse-le-progrès de service.
J'ai shaarlié un truc l'autre soir, un peu à la va-vite, une interview piochée dans Mediapart je crois, sur l'idéologie derrière l'IA, et sur le fait que l'IA ne recouvre pas les mêmes idées selon que le sujet-utilisateur est un prophète millénariste de la Silicon Valley (en gros : toujours plus de profit, humain augmenté, fantasmes d'immortalité) ou un plébéien, où les objectifs sont plutôt toujours plus d'exploitation, de moins en moins de liberté, mais avec le sourire, parce que l'IA c'est vraiment trop cool.
Seb l'a excellemment dit l'autre jour : l'IA et un instrument de domination. Tu donnes un sucre à un clébard, il est content d'avoir un sucre. Et du coup il ne voit pas la laisse de plus en plus courte, la niche pourrie et la bouffe dégueulasse.
C'est nous les clébards dans l'histoire.
C’est le « père » de l’IA moderne qui en dit le plus de mal. À propos de l’intelligence artificielle générative, Yann Le Cun avait dès 2023 une formule expéditive et cruelle, mais éclairante : « Personne ne peut garantir que ce qui sort de la machine est factuel, non toxique, compréhensible. »
Le chercheur et vice-président de Meta estime que le modèle technologique des LLM est une impasse et enjoint à ses pairs de chercher d’autres voies. Lui-même travaille depuis deux ans sur un autre modèle, dont il entrevoit l’aboutissement dans seulement de très longues années.
Car tout le monde le sait, bien que presque personne ne le formule clairement : l’IA générative, qui aligne les mots statistiquement les plus probables, commet des erreurs, parfois beaucoup d’erreurs. Demander début février 2025 aux robots disponibles qui est le premier ministre français expose par exemple à se faire répondre qu’il s’agit d’Élisabeth Borne (ChatGPT et DeepSeek) ou Gabriel Attal (Claude). Et parfois, quand elle ne sait pas, elle invente. Ce sont les fameuses « hallucinations », un terme promu par les géants de la tech pour humaniser leurs créations et rendre acceptables leurs déraillements.
Selon l’entreprise de sécurité NewsGuard, qui soumet ces outils à des tests rigoureux, le taux d’échec moyen des dix principaux chatbots était de 62 % (d’erreurs ou de non-réponses) en décembre. Celui de DeepSeek un mois plus tard était de 83 %, et dans trois cas sur dix, le nouveau robot « a relayé la position du gouvernement chinois sans qu’il lui ait été demandé quoi que ce soit concernant la Chine ».
Aujourd'hui, avec l'émergence de l'intelligence artificielle, Spotify glisse des musiques générées par IA dans ces playlists très populaires. Cette méthode répond aux besoins des utilisateurs, tout en permettant à Spotify de ne pas payer de redevance puisqu'il s'agit d'une IA, et non de vrais artistes.
A l'inverse, chez Deezer, y z'ont rien compris :
700 000 musiques arrivent par semaine sur la plateforme et 10% (soit 70 000) sont des chansons générées par intelligence artificielle. Leur politique est donc de les supprimer des recommandations et des playlists pour faire place aux vrais artistes.
Ah, les cons.
...
Ou pas ?
En tout cas, si je devais prendre un abonnement, je saurais où mettre mes sous.
Le règlement européen de 2024 interdit certains usages de l’IA, comme la manipulation d’opinion ou le calcul de scores sociaux. Mais d’autres usages de systèmes plus modestes créent déjà des dommages. Un des cas les mieux documentés est celui des allocations familiales aux Pays Bas, où des algorithmes sont utilisés pour détecter les fraudes. Plusieurs dizaines de milliers de familles ont été poursuivies par erreur, avec des conséquences terribles pouvant aller jusqu’au divorce ou même le suicide.
Mediapart : Plus personne désormais n’ignore qu’Elon Musk est l’un des proches les plus influents du nouveau président américain. Est-il l’arbre qui cache la forêt de ces milliardaires de la tech fascinés par le trumpisme ?
Thibault Prévost : Elon Musk n’est évidemment pas tout seul. Les médias américains ont bien raconté comment tous ces milliardaires de la Silicon Valley, en tout cas ceux qui penchent le plus à droite, ont à la fois infiltré et phagocyté l’équipe de transition et le futur gouvernement Trump.
...
Il devient difficile de savoir si Elon Musk rejoint Donald Trump, ou si c’est le trumpisme qui est en train d’être altéré de l’intérieur par Musk.
Dans les meetings, Elon Musk portait par exemple une casquette « Dark Maga », qui fait référence au mouvement des « Lumières noires », qui a été théorisé par Curtis Yarvin. C’est un mouvement néofasciste qui défend l’idée qu’un pays idéal devrait être gouverné comme une entreprise, par le patron d’une entreprise.
...
Le plan de ces milliardaires d’extrême droite est-il en train de se réaliser ?
Oui. Pour les milliardaires de la tech, le programme, c’est de se libérer de la concurrence et de la régulation à la fois. En investissant la Maison-Blanche, ils sont en train de faire les deux. Et la théorie selon laquelle la Silicon Valley serait composée de libertariens a vraiment un coup dans l’aile.
Ce sont au contraire des gens dont la fortune est dopée par de gigantesques contrats publics et qui ne veulent pas du tout de la disparition de l’État. Ils veulent un État sur mesure. On assiste à l’aboutissement de la stratégie de capture réglementaire, qui consiste normalement à infiltrer les régulateurs pour devenir soi-même le régulateur. C’est une étape de plus : devenir carrément l’État et s’autodécerner des contrats militaires, des contrats de surveillance ou des contrats spatiaux, dans le cas de Musk. On assiste à la transformation d’une oligarchie [le gouvernement par une élite – ndlr] en pure ploutocratie [le gouvernement par les riches – ndlr].
...
On ne peut plus faire l’impasse sur cette filiation idéologique et il est urgent de nommer l’IA pour ce qu’elle est. L’IA porte un projet de redéfinition de la notion même d’être humain. Le discours qui promeut l’intelligence artificielle propose de refonder les architectures de la société. On retrouve là le projet transhumaniste, cher aux milliardaires de la tech.
Ce projet est très différent selon qu’il s’applique à eux-mêmes ou au reste du corps social. Pour eux-mêmes, l’IA, c’est le projet d’augmentation des capacités humaines, la mythologie du surhomme, la volonté d’hybrider son cerveau avec la machine. De défier la mort aussi.
Mais pour ces milliardaires, quand l’IA est appliquée au reste du corps social, elle devient un outil de contrôle et de servitude. Quand on regarde les utopies qu’ils défendent, par exemple les stations spatiales de Musk, le futur qui est promis pour la population, c’est la servitude algorithmée, aux mains de la machine, avec un capital qui se régénère quasiment automatiquement.
Un rappel pourtant essentiel :
L’IA n’est pas une technique, c’est une idéologie. C’est ce qu’explique d’ailleurs un de ses créateurs, John McCarthy. Quand il a lancé le terme Artificial Intelligence, c’était un choix conscient pour obtenir des financements. L’idée d’une machine anthropomorphique, qui va arriver non seulement à atteindre l’être humain, mais à le dépasser.
Et quand on humanise la machine, on mécanise l’humain – c’est la contre-proposition tacite. Cela devient extrêmement dangereux pour les sociétés, et notamment dans la sphère du travail. Quand on déploie des algorithmes dans l’entreprise, on pousse aussi les gens à se rapprocher de la machine. Et donc à réduire leur périmètre d’autonomie politique.
...
Il faut aussi rappeler que l’IA générative, présentée depuis l’arrivée de ChatGPT fin 2022 comme un outil déjà, ou bientôt, plus efficace que l’homme, ne marche pas si bien que cela. Pourquoi ?
Structurellement, on parle de machines qui font 5 à 20 % d’erreurs. Elles sont entraînées sur un corpus de données absolument gigantesque, et font des mises en relation entre des points, par inférence statistique. Tant qu’on reste dans une représentation du monde qui est proche de la médiane statistique, cela fonctionne très bien.
Mais plus on s’éloigne de la médiane, plus le modèle va avoir du mal à prédire et à modéliser le monde. Le problème est que la médiane politique du monde correspond à la bourgeoisie, à la blanchité, au genre masculin. Aux dominants, en fait.
Donc, plus on s’éloigne de la représentation du monde des dominants, plus on arrive dans les marges, plus on se retrouve avec une automatisation des inégalités, comme le dit la politiste Virginia Eubanks : la machine reproduit et amplifie les biais de classe, de race et de genre, qui soutiennent déjà le monde occidental. Toute machine algorithmique est une intervention politique sur le réel.
Dans une tentative de dépolitiser le problème, la Silicon Valley essaye de redéfinir les erreurs de l’IA comme des « hallucinations », en nous obligeant à une forme de tendresse par rapport aux machines, qu’il faudrait éduquer. Je suis absolument contre l’usage de ce terme : il s’agit d’erreurs de calcul, de désinformation, intrinsèques au modèle.
Et on découvre régulièrement que les machines autonomes ne le sont en fait pas.
On apprend par exemple que la voiture autonome nécessite une supervision humaine à distance [Le New York Times évalue la supervision nécessaire à 1,5 humain par véhicule autonome – ndlr] ou que les magasins automatiques Amazon où on ne passait pas à la caisse étaient gérés par un millier de travailleurs indiens sous-payés, qui devaient manuellement « flaguer » les achats des clients à travers des caméras de surveillance. Il faut davantage d’êtres humains pour gérer l’illusion de l’intelligence et de la machine autonome. Cela illustre bien l’inutilité massive de ce système.
Vendredi 7 février, dans le XIIIe arrondissement de Paris, des élu·es, des militant·es et des travailleurs et travailleuses du numérique se pressaient pour une journée organisée par l’eurodéputé, avec une ambition forte : « Réinventer l’IA. »
Pour les écologistes, le sommet prévu par l’Élysée élude de nombreuses questions de premier plan, sur le coût humain du développement de l’IA, sur son prix énergique ou encore sur ce qu’elle fera à nos démocraties et à nos lieux de travail. Des questions auxquelles les participant·es des conférences ont été amené·es à réfléchir.
Fin novembre de la même année, Thierry Breton, commissaire européen au marché intérieur, tente d’enrayer la machine diplomatique et s’accorde une sortie tonitruante dans La Tribune. « Je le dis pour tous ceux qui font du lobbying en France : d’où parlez-vous et pour les intérêts de qui ? », accuse l’ancien ministre de Jacques Chirac, reprochant nommément à MistralAI de « ne pas défendre l’intérêt général ». « Je ne suis dupe de rien, je vois tout », lance alors le commissaire français.
Quatorze mois plus tard, le débat a été définitivement tranché. L’AI Act est entré en vigueur dans une version très largement amoindrie, à la plus grande joie de Cédric O et de Mistral. Thierry Breton n’est plus commissaire européen, débarqué avec l’aval d’Emmanuel Macron au profit de Stéphane Séjourné, un fidèle parmi les fidèles.
« C’était le témoin gênant, note l’eurodéputé écologiste David Cormand, membre de la commission spéciale planchant sur l’IA au niveau européen, et qui a organisé un « contre-sommet » le 7 février à Paris, où Thierry Breton était l’invité vedette. Il incarnait une autre ligne, moins encline à sacrifier les droits fondamentaux au profit d’une minorité. »
Les entreprises qui développent des programmes d'intelligence artificielle pourraient intégrer dans leurs IA génératives des watermarks, ces signatures visibles (par un symbole superposé à l'image) ou invisibles (des motifs intégrés directement dans certains pixels de l'image, ou dans certains mots qui se répètent) qui peuvent ensuite être détectées. Mais l'application n'est pas toujours facile, et les entreprises y ont peu d'intérêt. D'après le Wall Street Journal(Nouvelle fenêtre), OpenAI a créé par exemple un détecteur de texte généré par ChatGPT efficace à 99,9%, mais refuse de l'ouvrir au grand public.
Tiens donc.
Publier des deepfakes pour montrer l'utilité de l'IA ? C'est moi ou c'est complètement con ?
Le fameux “gain de temps” vs les effets d’accélération: on gagne du temps mais du coup on nous en demande plus; le temps n'est pas gagné pour nous mais pour l'employeur.
La créativité à base figée vs la pollution informationnelle: l'IA ne sait que régurgiter ce qu'elle a dévoré... sa créativité est donc limité à une imitation et provoque un appauvrissement créatif.
L’automatisation des tâches répétitives vs l’effet coupe rase et la perte de compétences : comment devenir programmeur senior si les IA remplacent les programmeurs juniors ? La compétence acquise par les erreurs, le tâtonnement, la recherche de solution, la modélisation du problème est perdue si on utilise l'IA.
C'est tellement ça !
Et, évidemment, changer les méthodes de la police et n'utiliser la violence qu'en ultime recours => NON CERTAINEMENT PAS
Une nouvelle extension anti-IA ; j'espère qu'elle est mieux que celle de Mozilla, qui me déçoit un peu car ne fonctionnant que sur des textes en anglais.
Le fonctionnement est on ne peut plus simple : l’extension tourne en tâche de fond et affiche un pop-up en cas d’alerte, avec le message suivant : « D’après les constatations (humaines) de Next.ink, des articles de ce site semblent avoir été (en tout ou partie) générés par IA ».
Et elle peut aussi servir à signaler des sites.
Lien vers Add-ons Firefox : https://addons.mozilla.org/fr/firefox/addon/alerte-sur-les-sites-genai/
EDIT : je viens de tester sur ce site de merde : https://news.dayfr.com/, ça fonctionne.
"Tous pourront utiliser un 'agent conversationnel' pour effectuer des recherches, préparer des courriers, des synthèses ou des comptes-rendus, assurer parfois aussi des traductions"
Vous savez qu'on a pas besoin d'une IA pour faire ça, hein, vous le savez ? Hein... dites ?
Cette course à l'IA comme des poulets sans tête est un cauchemar. Il n'y a plus de fric (soi disant) pour les hôpitaux, pour la culture, pour la justice, mais on va cramer des dizaines de millions ? de milliards ? pour un truc inutile. J'enrage.
Deux pleines pages et une Une pour faire la pub de l'IA, "incontournable" sans qu'on sache bien pourquoi, et sans une seule mise en garde sur les dangers, bien réels, de cette technologie en plein essor. Aucune mention, dans le Parisien, de l'incompatibilité totale de l'IA avec la lutte contre le réchauffement climatique : l'intelligence artificielle détruit activement la planète et consomme tant de CO2 qu'elle a mené, en 2024, les géants du net à abandonner leurs objectifs de neutralité carbone. Aucune mention non plus, dans le Parisien, du fait que des centaines de spécialistes du sujet, y compris des ancien·nes salarié·es d'OpenAI et autres entreprises d'IA, ont signé une lettre ouverte dans le New York Times alertant sur le "risque existentiel pour l'humanité" que pose l'intelligence artificielle. La philosophe étatsunienne Shannon Vallor alerte également sur les dangers pour notre humanité, notre jugement moral et notre capacité à raisonner logiquement que pose l'habitude de se reposer sur l'IA pour penser et créer à notre place. Des dangers bien illustrés, inconsciemment, par cet article du Parisien, qui ressemble un peu trop à la prose de ChatGPT - et épouse en tout cas son optimisme fade et creux.
C'est un axiome qu'on peut lire dans les deux sens : l'IA rend cons, les cons aiment l'IA.
Bon, là c'est sûr, on va tous crever.
Non seulement ce sont des fascistes, mais en plus ils sont complètement débiles.
But given the widespread dismantling of regulations under the Trump administration, it also feels like an unbelievably precarious moment to be handing over any amount of control over nuclear weapons to a busted AI system.