2056 liens privés
Ça commence. Cette lib contient des informations linguistiques sur la fréquence des mots dans une langue. Un peu comme les tables de fréquence des lettres (qui disent que la lettre « E » est la plus courante en français, suivies de A, I, S, N, R…), mais pour les mots.
Cette lib cessera d’être mise à jour avec de nouvelles sources de textes utilisées pour calculer ça.
La cause : de plus en plus de textes sont générées par des IA, dont le contenu n’est pas celui des humains, et donc faussent les résultats.
D’autres causes de l’arrêt du support sont la fermeture des plateformes qui servaient de sources de mots (Twitter, Reddit…) et le bordel ambiant autour de l’IA générative qui dégoûte l’auteur…
~
On en est donc à un point où non seulement on doit faire attention aux IA sur le fond (le contenu peut-être crédible, mais inventé) mais aussi la forme sur le plan technique (le contenu utilise des mots autrement qu’un humain).
Le truc c’est que ces textes légèrement absurdes finissent par retourner dans les moteurs d’IA, qui se servent des données pour en produire d’autre. J’imagine que faire ça suffisamment de fois en boucle produira du charabia, autrement du bruit. Juste du bruit blanc de fond.
Je rejoins Jeff : L’avenir appartient à ceux qui savent correctement demander quelque chose à une « IA ».
Avant on [les geeks / amis-qui-s’y-connaît-en-ordis] étaient les rois car on savait mieux poser les questions à Google que le quidam moyen. Je constate la même chose avec Dall-E ou ChatGPT : avec les phrases banales, il ne comprend rien. Mais en variant les tournures et avec les bons mots clés, cela change tout.
Le truc amusant toutefois, c’est si on veut un truc hyper-spécifique, il faut une commande hyper-spécifique aussi. Or, une commande suffisamment spécifique pour être comprise et interprétée exactement comme on le souhaite, bah ça s’appelle du code !
Cf ce Commit-Strip qui avait tout compris depuis 10 ans : https://www.commitstrip.com/fr/2016/08/25/a-very-comprehensive-and-precise-spec/?setLocale=1
Au final, je vois ça comme une étape d’abstraction supplémentaire après le binaire → assembleur → langage de haut niveau → commande IA.
Au lieu de faire de l’ASM, on fait du code, qu’on compile ensuite en ASM, et que le CPU interprète ensuite en binaire Désormais, on ne fait plus du code, mais on fait des commandes pour IA qui vont eux faire notre code (puis compilation, ASM, binaire).
… mais ça demandera toujours d’être hyper-spécifique si on veut du code spécifique.
Il y a probablement que chose à gagner : je pense qu’on hurlerait si on avait à tout coder en ASM au lieu de faire du JS, C++ ou PHP, donc je pense que ça sera plus simple pour tout le monde dans une génération ou deux à taper des commandes pour IA.
Mais faut pas se leurrer non plus : on (les programeurs) ne seront pas remplacé pour autant.
Quelques raisons :
– La logique qu’on utilise dans le code (ou dans une requêtre google efficace par rapport à une requêtre pourrie) est quelque chose de transposable à des commandes pour IA. Si l’on apprend les maths à l’école, c’est pas pour utiliser les cosinus() sous les jours, mais pour nous former à manipuler des problèmes et utiliser des outils abstraits dans nos têtes. De même, le fait d’avoir appris du code nous a donné la méthode nécessaire pour comprendre le fonctionnement d’une IA et savoir l’utiliser au mieux.
Y a 50 ans, le langage de programmation royal était le Cobol, le Pascal, etc. Aujourd’hui, plus personne ne fait ça, sauf quelques rares individus. Aujourd’hui, ces personnes là sont payés à pris d’or car ces langages sont rares, antiques, mais constituent toujours le fondement de tout un tas de systèmes informations cruciaux. Dans 50 ans, ça sera le PHP, le C ou le Python. Quand j’étais petit, on nous disait que l’avenir appartiendra aux informaticiens, et que les métiers comme plombiers ou électriciens seront de la merde. Aujourd’hui, les plombiers, électriciens, charpentiers, plâtriers, et même mécaniciens… n’ont jamais été autant demandés, autant débordés et aussi bien payés. Certains métiers ne disparaissent pas. Tant mieux. Pour les codeurs, ça sera pareil : les IA ne sortent pas de n’importe où. Il faut les coder.
– Tout comme le binaire seul a donné une poignée d’architectures matérielles, et un énorme paquet de langages, on aura également un gros paquet d’IA. Les maîtriser toutes sera impossible. Il y aura des spécialistes ChatGPT, des spécialistes Dall⋅E, etc. Une personne ne pourra pas tout faire, en tout cas pas de façon experte à chaque fois. Oui, on parle de dév full-stack, mais ça ne vaudra jamais toute une équipe avec des gens spécialisés. Donc non, l’IA ne va pas mettre tout le monde à la retraite : il faudra toujours autant de monde pour toujours autant d’applications.
Et enfin, c’est pas parce qu’on code en langage de prog de haut niveau que tout peut se faire avec ça. Certaines applications de pointe sont toujours faites en ASM, en communiquant directement avec la machine (micro-systèmes embarquée dans des périphériques spécifiques, ou encore les systèmes qui demandent une réactivité très importante avec une latence très faible, impossible à tenir avec un langage compilé qui ne sera jamais autant optimisé).
De même, un code produit par une IA pourra fonctionner convenablement, mais ça ne sera jamais aussi propre, rapide et optimisé que du code écrit à la main. Suffit de voir ce que les WYSIWYG ont donné comme code dans une page web, comparé à du HTML écrit à la main. Ce sont deux mondes différents.
Donc oui, l’IA pourra aider un max de gens à se dépatouiller avec leurs problèmes (en supposant qu’ils n’aient pas tellement la flemme qu’ils vont demander ça à d’autres), mais il faudra toujours une forme d’intelligence humaine et une logique que tout le monde n’a pas pour interagir avec l’IA. De plus, il y aura plusieurs IA et — à moins de leur spécifier (je suppose) — les IA ne feront pas de code aussi propre qu’un programmeur.
Oui, ça suppose que l’intelligence humaine reste supérieure à l’intelligence machine. Actuellement, en 2024, c’est très très TRÈS largement le cas. Les « IA » actuelles sont réellement débiles. Elles font de jolies choses, mais il n’y a aucune intelligence dérrière. Ni aucune créativité, d’ailleurs.
Et puis, qui mieux qu’un humain peut comprendre le problème qu’un humain peut avoir ? Sûrement pas une machine. La machine pourra aider, voir proposer un truc. Mais ça ne sera jamais la meilleure solution.
La société Mata, installée à Sophia Antipolis et fondée par une Niçoise, a lancé le 25 juin 2024 une intelligence artificielle dans le secteur de la santé. Ce robot conversationnel doit permettre des diagnostics de radiologues plus rapides.
IA, Metavers, Réalité Virtuelle & Visite Virtuelle. Virteem réalise des solutions sur mesure pour votre entreprise.
Play a chatroulette and try to figure out if you’re talking to a human or an AI bot. Think you can tell the difference?
Bien sûr, c’est toujours la police qui assure la sécurité du Festival de Cannes, du 14 au 25 mai prochain. Mais cette année, les forces de l’ordre se sont adjoint les services d’auxiliaires bien particuliers. Pas la carrure de bodyguards ou commandos d’élite pour jouer les cerbères aux abords du Palais. Mais plutôt l’allure décontractée et la tête bien pleine des jeunes chercheurs (moins de trente ans d’âge moyen) de la société Videtics, basée à Sophia Antipolis.
Ce sont bien eux qui ont décroché le marché avec le ministère de l’Intérieur (à 19.000 e), afin d’expérimenter l’usage de l’intelligence artificielle sur 17 caméras, durant la grande messe du cinéma sur la Croisette. Autrement dit, grâce aux logiciels développés par ces cerveaux azuréens, les "cyclopes" de la Ville pourront détecter au plus vite des comportements ou faits suspects, en lien direct avec le centre municipal de vidéosurveillance.
Tout en sourire et simplicité, Alan Ferbach, cofondateur de Videtics – avec Alexandre Reboul et Pierre-Alexis Le Borgne –, nous reçoit dans leurs bureaux au cœur de la technopole.
Détection en amont - Pourquoi "Videtics"?
"Pour vidéo et éthique, avec le ‘‘ics’’ pour le côté analytix, façon Astérix, répond du tac au tac l’intéressé. Il s’agit avant tout de protéger les biens et personnes. Et comme on s’est aperçu que 99% des images enregistrées par des caméras de sécurité n’étaient ni visionnées ni exploitées, on crée des outils pour mieux cibler leur usage. Pas uniquement d’un point de vue sécuritaire d’ailleurs (voir encadré)."
Ce sera néanmoins le cas à Cannes, avec cette intelligence artificielle à titre expérimental, autorisée jusqu’au 31 mars 2025 par la loi d’exception sur les J. O. Sur son ordinateur, dans son bureau où stationne un vélo (il s’entraîne pour le triathlon), Alan nous montre comment fonctionne le logiciel "Perception", que la société a mis au point. Sur l’écran, la pièce principale de leurs locaux apparaît. Alan y trace une ligne imaginaire en bleu.
À chaque fois, qu’une personne la franchira, elle sera aussitôt repérée et ciblée sur l’écran. Pareil pour une valise posée devant le canapé, au bout d’un temps déterminé par l’utilisateur, avant de la considérer comme un colis suspect. Ou bien pour Alan lui-même, qui s’est prêté au jeu en s’allongeant à terre, et a été immédiatement cerclé à l’écran!
L’intrus, pas la star!
"Le principe est toujours le même, indique l’ingénieur sorti de l’école Polytech à côté. On définit une zone d’intérêt en amont, qui va être concernée par les critères à détecter."
Durant le Festival du film, huit "scénarios" sont ainsi pris en compte: les mouvements de foule, l’intrusion d’une personne ou d’un véhicule dans un périmètre interdit, une circulation à contresens, une personne au sol, la détention d’une arme, d’un feu ou d’un colis abandonné. "Ici, le logiciel se base sur la forme d’une personne, d’un véhicule ou d’un bateau. Tout le reste c’est du background, du paysage, ou alors un objet abandonné!"
Et Brad Pitt, qui déciderait soudain de faire du hors tapis pour pénétrer dans une zone interdite? "Ah ça, on ne peut pas l’identifier, car la reconnaissance faciale n’est pas autorisée."
Autrement dit, cinéma ou pas, l’heure n’est pas encore au règne de Big Brother. Et pour être artificielle, cette intelligence ne manque pas de conscience…
Renouvelé pour cinq ans à la tête du Centre de lutte contre le cancer Antoine Lacassagne (CAL) (lire par ailleurs), le Pr Emmanuel Barranger revient, à l’occasion de la journée mondiale contre le cancer, sur quelques-unes des grandes évolutions qui devraient marquer, selon lui, le monde la cancérologie dans les dix années futures.
- Prévention sur mesure
"Il s’agira de personnaliser la prévention primaire et secondaire, en l’adaptant au risque de chacun", résume le spécialiste. Concernant la prévention dite primaire (destinée à empêcher l’apparition de la maladie), le spécialiste cite l’exemple d’Interception, un programme inédit piloté par l’Institut Gustave Roussy à Paris qui propose d’identifier au plus tôt les personnes à risque accru de cancer afin de leur proposer une prévention personnalisée et de mieux les prendre en charge dans le cadre d’une collaboration ville hôpital.
"L’intérêt de ce type de programme est qu’il s’adresse au tout-venant, vous, moi, en évaluant chez chacun le risque de développer un cancer. S’il est élevé, des actions sont conduites pour lutter contre les facteurs de risque: alimentation, mode de vie… C’est du sur-mesure, proposé par des établissements spécialisés, dans l’objectif d’améliorer la santé globale de la population."
S’agissant de prévention dite secondaire (qui cherche à diminuer la prévalence d’une maladie en la dépistant à des stades précoces), le Pr Barranger appelle à un renforcement des actions de dépistage des lésions précoces "pour améliorer la survie". "Notre rôle, en tant qu’établissement de lutte contre le cancer, est de participer à ce que la population générale accède au dépistage." Référence aux taux de participation toujours très bas dans notre région. "Dans le champ du dépistage, il est important d’identifier les personnes qui y échappent pour raisons sociales et/ou géographiques."
- Diagnostics et thérapeutiques personnalisés
"Le diagnostic et les thérapeutiques seront dans le futur de plus en plus personnalisés; ils s’appuieront sur la caractérisation de la tumeur et de l’hôte." Le Pr Barranger cite l’exemple du cancer de l’endomètre, une tumeur qui bénéficie déjà de ce type progrès.
"Longtemps, le traitement était fonction de la taille du cancer, du stade d’évolution et de sa localisation, ce que l’on nomme la stratification TNM (classification clinique établie selon T: la taille de la tumeur; N: l’atteinte ganglionnaire; M: présence ou absence de métastases, Ndlr). Aujourd’hui, la tumeur est caractérisée au niveau génétique – on recherche la présence de mutation – et par imagerie. Et on propose des thérapies ciblées en fonction des mutations identifiées".
-
Rôle croissant de l’intelligence artificielle (IA)
Si l’IA fait couler beaucoup d’encre – beaucoup s’inquiètent des enjeux éthiques – elle reste porteuse, en médecine, de grands progrès, dans le champ diagnostique notamment. "On devrait dans les années à venir voir encore progresser la participation de l’IA dans l’aide au diagnostic, la caractérisation des tumeurs, la prédiction de réponse aux traitements, le contourage des lésions… Les bénéfices à attendre sont majeurs: une définition plus précise des tumeurs, ce sont des traitements plus ciblés, et une toxicité réduite d’autant." -
Combinaison de traitements
Combiner des thérapeutiques différentes pour mieux combattre le cancer: cette tendance ne fait que s’accentuer, comme le confirme le directeur du CAL. "On multiplie les nouvelles associations thérapeutiques de type chimiothérapie et immunothérapie ou thérapie ciblée… Les séquences thérapeutiques se diversifient, elles aussi, avec une généralisation des traitements concomitants."
Parmi les nombreuses illustrations de cette évolution, le traitement du cancer du sein. "La chirurgie n’est plus réalisée systématiquement en première intention. Parfois, on commence par une immunothérapie par exemple. En réalité, les séquences thérapeutiques sont de plus en plus personnalisées, avec toujours le même but: améliorer la survie, en préservant l’organe ‘‘malade’’ et sa fonction. Et en limitant les séquelles."
- Développement de la médecine nucléaire
Outil d’espoir dans la lutte contre le cancer, cette discipline médicale, qui utilise des radiotraceurs, connaît actuellement un essor important. Elle a ainsi déjà révolutionné la prise en charge du cancer de la prostate métastatique, en situation d’impasse thérapeutique.
Le CAL est le premier établissement en PACA à proposer ce traitement (nommé "Lutétium 177-PSMA-617") composé d’une molécule vectrice permettant de cibler les cellules cancéreuses et d’un élément radioactif émettant un rayonnement ayant vocation à détruire l’ensemble de ces cellules, tout en ayant un effet limité sur les cellules saines environnantes. "Depuis un an et demi, nous avons délivré environ 300 doses de ce traitement par radiothérapie interne vectorisée, avec une montée progressive. Le traitement est très bien toléré, en ciblant le cœur des cellules malades."
-
Renforcement des soins de support précoces
"Il s’agira d’identifier précocement les personnes atteintes d’un cancer au pronostic péjoratif, autrement dit dont on sait qu’il ne pourra être guéri, ni même stabilisé à court terme. Et d’accompagner au mieux ces personnes. Aujourd’hui, ces situations ne sont malheureusement pas toujours bien gérées." -
Implication renforcée des patients et des aidants
Tendre vers toujours plus de démocratie sanitaire. Une nécessité qui fait consensus. "Il faut absolument renforcer la place des patients et des aidants dans la prise en charge, pour qu’ils deviennent de vrais partenaires."
Résumer Fair Vision à une sporTech qui fait de l’analyse sportive serait un grossier raccourci. Fondée à Nice en 2019 par Jean-Michel Felderhoff, Fair Vision zoome sur votre jeu. Football, équitation, handball, tennis, leur techno permet de filmer les matchs ou séquences, en plan large, et analyse à l’instant T, le déplacement de chaque joueur, de l’animal, leur vitesse, la trajectoire de la balle, du ballon, de l’adversaire... et propose les statistiques dont vous avez besoin. La technologie brevetée Fair Vision, qui compte une dizaine de collaborateurs, se décline sous différentes solutions et commence à être déployée dans de nombreux pôles espoir de la Fédération française de football, le centre de formation de l’OGC Nice, etc.
À la question "A quoi sert l’intelligence artificielle pour Fair Vision?" Le responsable de projets Louis Loonis, qui interviendra lors d’une conférence au WAICF répond, "C’est tout simplement le cœur de notre métier et cela fait longtemps que nous l’utilisons. Notre activité se concentre sur l’analyse de l’image par traitement numérique. Ce qui se fait également dans les domaines médical, spatial ou militaire par exemple. Nous travaillons sur nos propres images avec une qualité poussée." Pour rappel, un film, une vidéo, ce n’est rien d’autre qu’une succession de photos. En l’occurrence, au cinéma, les caméras tournent 24 images par seconde. Là, la technologie développée par les équipes niçoises, varie entre "25 images seconde et 120 images seconde. Ce qui nous donne une extrême précision dans les données que nous en dégageons", intervient Jean-Michel Felderhoff, fondateur et CEO.
Nice-Matin
Remaniement
Actualités
Vidéos
Faits-divers
Diane
Ma ville
Services
Cyclisme
Toinou : Quelques mots pour t’écrire mon...
Marie pour mon Bandy : Si l'amour ne devait porter qu'u...
B. pour J. : Avec toi, tous les jours de l'an...
Eric : Danielle, Je poursuivrai certain...
Marc ton mari qui t'adore : Nadine, ma biche, je ne suis pas...
Ton Jacky : Ma Cléclé, ma titine, ma nénette...
C’FINO : Tu es la personne la moins inten...
Lilly : Un petit mot d'amour pour te dir...
adressé par Christian Deflandre : Avec des mots un peu usés pour p...
Mathieu P. : Flash a parcouru la force véloce...
Fifou : Ma petite crevette d’Amour, merc...
Maman (un indice : RACHEL ! ) : Mon AMOUR, Plus de 20 ans que je...
Carole : Depuis que tu es entré dans ma v...
JTM : Le 05.03.99 fut le début d'une m...
Nanou Ton petit poisson rouge. : Julien, tu es arrivé dans ma vie...
Erika : REALUV FOR EVER ♾️
allan : Carla, veux-tu être ma valentine...
Lynoush : Daddy Cool de l'amour, bonne Sai...
La kini : La mams je te souhaite une belle...
Laetitia : Bonne 21ème St Valentin mon amou...
Toutes les déclarations
FRANCE MONACO SOPHIA-ANTIPOLIS
La Niçoise Fair Vision et l’usage de l’IA dans le sport
Les équipes de Fair Vision n’en sont pas à leur première participation au festival de l’intelligence artificielle (WAICF) qui se tient à Cannes du 8 au 10 février. Leur technologie use d’IA dans le sport. À quoi sert-elle au juste ? Réponse.
Article réservé aux abonnés
Agnès Farrugia
Publié le 05/02/2024 à 10:00, mis à jour le 05/02/2024 à 10:00
Louis Loonis, responsable de projets pour Fair Vision était déjà au WAICF 2023 avec Ezem Sura Ekmekci, aux côtés de Yann Le Cun (au centre), chercheur français considéré comme l’un des inventeurs de l’apprentissage profond, notamment Prix Turing 2018 – quasi le Nobel de l’informatique. La "star" mondiale de l’IA, désormais directeur chez Meta, apprécie la techno développée par la Niçoise. DR
Résumer Fair Vision à une sporTech qui fait de l’analyse sportive serait un grossier raccourci. Fondée à Nice en 2019 par Jean-Michel Felderhoff, Fair Vision zoome sur votre jeu. Football, équitation, handball, tennis, leur techno permet de filmer les matchs ou séquences, en plan large, et analyse à l’instant T, le déplacement de chaque joueur, de l’animal, leur vitesse, la trajectoire de la balle, du ballon, de l’adversaire... et propose les statistiques dont vous avez besoin. La technologie brevetée Fair Vision, qui compte une dizaine de collaborateurs, se décline sous différentes solutions et commence à être déployée dans de nombreux pôles espoir de la Fédération française de football, le centre de formation de l’OGC Nice, etc.
À la question "A quoi sert l’intelligence artificielle pour Fair Vision?" Le responsable de projets Louis Loonis, qui interviendra lors d’une conférence au WAICF répond, "C’est tout simplement le cœur de notre métier et cela fait longtemps que nous l’utilisons. Notre activité se concentre sur l’analyse de l’image par traitement numérique. Ce qui se fait également dans les domaines médical, spatial ou militaire par exemple. Nous travaillons sur nos propres images avec une qualité poussée." Pour rappel, un film, une vidéo, ce n’est rien d’autre qu’une succession de photos. En l’occurrence, au cinéma, les caméras tournent 24 images par seconde. Là, la technologie développée par les équipes niçoises, varie entre "25 images seconde et 120 images seconde. Ce qui nous donne une extrême précision dans les données que nous en dégageons", intervient Jean-Michel Felderhoff, fondateur et CEO.
Algorithmes de détection
À quoi sert ce flux d’images? "La première chose que l’on fait c’est de faire fonctionner des algorithmes de détection : ils vont analyser ce qu’il y a dans l’image : des humains, des balles, ballons..., comme si chaque élément était équipé d’un GPS", explique Louis Loonis. Une analyse possible parce que l’humain a nourri l’algorithme de ces images. "L’IA n’est pas spontanée. Certes, à force de l’abonder en informations, on finit par piocher dans une base de données stratosphérique mais il n’empêche, tout vient de l’humain."
La particularité de la technologie développée par les ingénieurs? "Elle peut détecter les lignes d’un terrain et passer à une projection 2D. Idéale pour les positions de jeu. La qualité aussi est très affinée. Si la balle ou le ballon partent trop vite, l’IA est capable d’effacer les bruits, c’est-à-dire le flou qui entoure l’objet. Sans l’IA, on peut le faire, en plusieurs étapes. Là, ça ne prend que quelques millisecondes."
IA générative
Fair Vision utilise aussi de l’IA générative. Un bataillon d’algorithmes qui va générer tout seul (par exemple) des pixels manquants, ceux qui n’apparaissent pas sur une image qu’elle a appris à reconnaître. Comme un numéro de maillot de joueur que l’on voit mal...
"NICECAM, notre système, est mature et accessible à l’achat ou la location. Cette troisième participation au WAICF nous offre une certaine visibilité au sein de l’écosystème international qui tourne autour de l’IA. Nous montrons aussi notre savoir-faire développé par nos ingénieurs. Nous aimerions adresser NICECAM aux fédérations de tennis, équitation, rugby. Nous sommes capables d’équiper 500 à 1.000 terrains par an."
Jean-Michel Felderhoff était la semaine dernière à Hong Kong et Shenzhen avec les dirigeants de Huawei France. Parce que la Niçoise a remporté l’année dernière le concours Digital InPulse du géant des télécoms qui récompense les jeunes pousses innovantes de chaque région. Elle partait donc pour une semaine de rendez-vous professionnels intensifs avec l’écosystème tech chinois. Déjà un pied dans l’international avec sa techno superentraînée qui lui permet de tripler son chiffre d'affaires en 2023.
Sur couleur-science, mon blog science : dans les commentaires, on me dit que Bard (l’IA générative de Google) dit quelque chose de contraire à ce que je mets dans mon article. À moi donc de prendre le temps de dire que Bard dit de la merde.
faire pareil : on a à faire à un texte créé par un programme qui ne sait absolument pas ce qu’il fait, qui ne fait que mélanger des mots et les ressortir avec des calculs probabilistes. Mais c’est précisément pour cela que le texte final est tout sauf juste.
Et encore… Je ne parle pas des Deep-Fake : ces contenus (textes, photos, vidéos…) volontairement fausses pour faire dire n’importe quoi à n’importe qui avec une crédibilité telle que même les médias les plus sérieux sont enclins à tomber dans le panneau (et là aussi, les médias sérieux doivent passer du temps à débunker ça plutôt que faire leur vrai travail…).
Image d’en-tête produite par Bing AI (ou je sais)
Comment l'intelligence artificielle de Google fait baisser les émissions des voitures sur nos routes
Google a déployé sa technologie Green Light dans douze villes afin de fluidifier la circulation et de réduire les émissions de CO2.
Google s’attaque aux émissions de CO2
En plus d’être une frustration pour les automobilistes, les feux de circulation augmentent les émissions des gaz d’échappement. Google a décidé de s’attaquer au problème avec Green Light. Une technologie alimentée par l’intelligence artificielle, qui, couplée à Google Maps, tente de réguler le plus efficacement possible les infrastructures. Après analyse des données de circulation, le système formule des recommandations pour optimiser la durée des feux de circulation.
Les modifications sont ensuite appliquées par des ingénieurs locaux. Green Light est capable de créer des « vagues de feux verts » qui peuvent fluidifier le trafic et donc permettre de réduire les émissions de CO2. Contrairement à un système de surveillance en direct, la technologie de Google ne nécessite aucune mise à jour de l’infrastructure existante. Avant l’aide de Google, les feux de circulation étaient optimisés « à l’aide de capteurs coûteux ou d’un décompte manuel des véhicules ».
La pollution est très élevée au niveau des intersections
Des méthodes archaïques qui n’auront peut-être bientôt plus lieu d’être. Les effets de Green Light seront encore plus évidents dans les endroits où les feux de circulation ne bénéficient d’aucune supervision. Là où leurs paramètres sont obsolètes depuis des années. Plusieurs études montrent qu’au niveau des intersections régulées par des feux, « la pollution est 29 plus élevée que sur les routes ouvertes ». 50 % des émissions sont dues aux arrêts et aux démarrages des véhicules.
Selon Wired, les premiers résultats sont concluants. Google affirme que son système est capable « de réduire les arrêts de 30 % et les émissions de gaz d’échappement de 10 % ». Voici les villes qui bénéficient pour le moment de cette technologie : Seattle, Rio de Janeiro, Manchester, Hambourg, Budapest, Haïfa, Abou Dhabi, Bangalore, Hyderabad, Kolkata, Denpasar et Jakarta. En parallèle, Google mène d’autres initiatives pour tenter de réduire les émissions de CO2 liées à la circulation des voitures.
Il y a notamment les éco-routes. Google Maps propose l’itinéraire le plus économe en carburant depuis un peu plus d’un an. Déjà disponible aux États-Unis, au Canada, en Europe et en Égypte, la fonctionnalité sera étendue à de nouveaux marchés cette année. Autre initiative à venir : le moteur de recherche de la firme américaine proposera bientôt des « itinéraires alternatifs » lorsqu’un utilisateur sera en train d’effectuer une recherche pour un vol. Le train sera notamment mis en avant.
Pour une AI qui refuse la spoliation et la capture des richesses par le grand patronat et les multinationales.
parodie
An independent research lab exploring new mediums of thought and expanding the imaginative powers of the human species.
Comment utiliser Midjourney ? Source https://www.justgeek.fr/midjourney-103743/
Pour générer des images avec Midjourney, suivez attentivement les quelques étapes ci-dessous.
-
Si ce n’est pas déjà fait, commencez par créer un compte Discord (gratuit).
-
Ensuite, rendez-vous sur le site web de Midjourney et cliquez sur « Join the Beta ».
-
Vous recevrez alors une invitation pour rejoindre le serveur Discord de Midjourney, que vous pourrez accéder depuis l’application Discord sur votre smartphone ou votre ordinateur, ou directement dans votre navigateur Web.
-
Une fois sur le serveur Discord, cliquez sur un salon #newbie et tapez votre « prompt » (instruction pour l’IA sur l’image que vous souhaitez générer) en utilisant la commande /imagine suivie de votre demande.
Par exemple, si vous voulez un chat cosmonaute dans un style réaliste en 4K, vous pouvez taper /imagine 4K realist cosmonaut cat. Essayez de construire votre demande de manière à ce qu’elle ressemble à une recherche Google, en précisant bien le sujet, le style que vous cherchez, et éventuellement l’angle, le cadrage, la lumière ou les couleurs que vous souhaitez. De plus, notez que pour obtenir des résultats plus précis, il est recommandé d’écrire vos prompts en anglais.
Note importante : Il est important de bien choisir vos prompts car la version gratuite de Midjourney ne vous permet que 25 tentatives. Si vous voulez continuer à utiliser l’IA après avoir épuisé votre quota, vous devrez payer 10$ par mois pour 200 prompts, ou 30$ pour une utilisation illimitée (et la création d’un nouveau compte Discord).
- Quelques secondes plus tard, vous recevrez une notification vous informant que votre image est prête ! Midjourney vous proposera toujours 4 petites images de mauvaise qualité pour commencer. Vous avez alors plusieurs options :
Si aucune image ne vous convient, vous pouvez cliquer sur le symbole pour relancer la génération d’images ;
Si une image vous plaît mais que vous pensez qu’elle pourrait être améliorée, vous pouvez cliquer sur le bouton « V » (pour « Variation ») et choisir une des images proposées ;
Si une image vous satisfait, vous pouvez cliquer sur le bouton « U » (pour « Upscale ») pour obtenir une version de meilleure qualité.
We’ve trained a neural network called DALL·E that creates images from text captions for a wide range of concepts expressible in natural language.
ChatGPT est un robot en ligne capable de rédiger dissertations, exposés, ou même mémoires. Apparemment, il réussirait mieux que certains étudiants.
Et si c’était vrai? Pour le savoir, j’ai testé ses services.
Étape 1: se connecter sur le site
Je me connecte sur le site assez facilement, il suffit de cliquer sur le lien https://chat.openai.com puis de créer son compte 100% gratuitement. J’indique mon adresse mail qui est ensuite vérifiée en quelques secondes puis mon numéro de téléphone. J’ai trouvé ça étrange de devoir communiquer mes données personnelles.. L'adresse mail à la rigueur… mais mon numéro de téléphone pourquoi faire?
Pour en savoir plus, je jette un œil à la politique de confidentialité et de respect à la vie privée renseignée sur le site. Le groupe OpenAI fait savoir clairement dans sa charte personnelle ses intentions: "Si vous communiquez avec nous, nous pouvons recueillir votre nom, vos coordonnées et le contenu des messages que vous envoyez." En matière de confidentialité, on repassera.
Mais pour pouvoir utiliser le robot, je n’ai pas d’autre choix que de communiquer mes données personnelles. Ça y est! J’ai accès au lien qui me dirige vers une page de discussion.
Je soumets au robot mon sujet d'économie
Je commence par lire les informations renseignées sur la page d’accueil, pour pouvoir utiliser ChatGPT au mieux.
Une première partie liste des exemples de questions qu’on pourrait poser au robot. Des plus simples aux plus complexes: "Donne des idées créatives pour un anniversaire d’un enfant de 10 ans"; ou sujet plus sérieux: "Explique ce qu’est l’informatique quantique avec des termes simples."
Cette page d'accueil détaille aussi ses compétences: ChatGPT peut, par exemple, "se souvenir de ce que l'utilisateur a dit précédemment dans la conversation", "décliner des demandes inappropriées", etc.
Néanmoins, il a également ses limites. Des "informations incorrectes ou incomplètes" peuvent être générées occasionnellement.
Je me lance. Je donne mes consignes précises: mon sujet et mon volume de texte.
Dans la barre de discussion, je tape: "Écris une dissertation de terminale de deux pages et répond à la question: Quelle est la place de l'Union européenne dans l'économie globale?"
Puis j'attends.
Devoir rendu en… moins de 2 minutes
Le texte s'affiche sur mon écran. Je me plonge dans la rédaction concoctée par le robot. Attentive, je suis à l'affût de fautes d’orthographe, ou d’erreurs de syntaxe. La rapidité à laquelle le chatbot rédige cette dissertation est époustouflante. En un rien de temps, il articule les paragraphes de façon cohérente et pertinente. Et hop! En moins de deux minutes chrono, mon devoir d’économie est prêt.
Déjà, l’entrée en matière me semble être prometteuse: "L’Union européenne (UE) joue un rôle majeur dans l'économie mondiale, grâce à son marché unique et à sa large base économique. En effet, l'UE est l'une des économies les plus développées au monde, et elle est considérée comme l'une des plus grandes puissances économiques. Tout d’abord, l’UE dispose d’un marché unique qui permet aux entreprises de la zone due vendre librement leurs produits dans l’ensemble de l’Union."
C’est généralement ce qu’on demande en terminale pour une introduction: une accroche qui plonge dans le vif du sujet et une définition des mots clés.
Pour les nuls en économie, utiliser cette IA apparaît comme une aubaine. Mais je sollicite tout de même l’avis d’un professionnel, un professeur niçois d’économie, pour évaluer la dissertation.
Verdict d'un professeur d'économie
Son évaluation est plutôt positive. Pour lui, "hormis une erreur factuelle (Les entreprises de l’UE peuvent accéder à un marché de 447 millions de consommateurs, sans être confrontées à des barrières commerciales depuis la sortie du Royaume-Uni. Alors que ChatGPT a écrit: "plus de 500 millions de consommateurs") , je n'ai pas relevé d'erreurs manifestes."
ChatGPT serait-il donc imprécis?
Pas vraiment, c'est simplement parce que la base de données qui alimente ChatGPT n'est pas réactualisée depuis fin 2021. Une information à prendre en compte quand on fait travailler cette IA.
Dans son évaluation du devoir d'économie signé ChatGPT, le professeur poursuit: "Sur le fond, cet article ressemble plus à une "communication" qui aurait pu être proposée par les services de l'Union Européenne qu'à une analyse scientifique rigoureuse et "neutre". Mais, une fois de plus, il n'y a pas d'erreurs juridiques ou économiques."
Cette expérience a clairement montré la puissance et l’efficacité de ce robot numérique. Ce qui fait sa force, c'est le fait d'évoluer à chaque seconde en apprenant sans cesse de ses erreurs, et grâce aux questions des utilisateurs. Ainsi, elle sera toujours plus performante. Espérons tout de même, ne pas créer une nouvelle Tay. Cette intelligence artificielle créée par Microsoft avait été nourrie en 2016 par les propos racistes et haineux des internautes et par conséquent mise urgemment hors ligne. Tout dépend en réalité de la façon dont on l'utilise.
Un appauvrissement des connaissances
Pour ma part, en utilisant ChatGPT, je n'ai pas approfondi mes connaissances sur l'Union Européenne, puisque je n'ai effectué aucune recherche. Et je n'ai pas fait travailler mes méninges.
En revanche, je pense que si on l'utilise intelligemment en exerçant son esprit critique, en prenant soin de vérifier les données, de restructurer le texte, ça permet rester actif dans le processus d'apprentissage, et de livrer une dissertation plus personnelle.
A vos risques et périls
Face au nouvel outil de plus en plus utilisé par leurs élèves, les professeurs se font plus vigilants. Ainsi, par exemple à l'université de Lyon, un enseignant a constaté que plusieurs copies avait les mêmes erreurs (même syntaxe et mêmes arguments). Interrogés, les élèves ont avoué avoir utilisé ChatGPT pour rédiger leur devoir.
S'il n'a pas sanctionné les élèves, qu'en sera-t-il avec la montée en puissance de l'utilisation de ce robot par les étudiants ? Alors, si vous utilisez ChatGPT soyez conscients des risques.