Comments

  1. Boudjemaa Boudaa

    Merci pour vos enseignements,
    Serait il possible d'avoir gratuitement votre livre "La formule du savoir". Merci encore une fois.

  2. Antoine GIORDANO

    Super vidéo encore !
    J'essaie de recréer un réseau de neurones en Java à partir de 0 et je rencontre un problème…
    Vu que notre réseau apprend par "set" de données, quelles valeurs d'inputs un neurone doit utiliser pour calculer sont gradient et modifier ses coefficients ? Le réseau doit-il utiliser un des exemples du set de données pour que chaque neurones se règle, ou également une moyenne comme pour l'erreur, ou encore autre chose ?..
    Merci si quelqu'un peut m'éclairer 🙂

  3. xxiemeciel

    pour les developpeur, il y a pyTorch aussi, typiquement un reseau de neurones c'est quasiment que du calcul matriciel

  4. hl037

    Tient, pourquoi cette vidéo n'est-elle pas dans la playlist ?

  5. Julien Lène

    Tenser Flow n'est pas un langage de programmation mais une bibliothèque! Tu n'as pas répondu correctement à la question de gamermachin, je dirais d'ailleurs que c'est le python le langage le plus utilisé pour les réseaux de neurones.

  6. Louis Heuveline

    D'après la définition que tu donnes des algos génétiques, j'ai l'impression qu'on peut évetuellement les raccrocher aux méthodes ensemblistes, et particulièrement à AdaBoost avec des RandomForests comme weak learners, qui a quelques points communs: Une population variée au travers à la fois des arbres des forests et des combinaisons de weak learners, une forme de sélection par les poids ajustés via Adaboost sur chacun des learners et une combinaison dans le sens où AdaBoost est séquentiel. Est-ce que ça te semble totalement déconnant comme "relecture" ?

  7. Hapkiboy

    Aaah, passionnant ça ! On arrive à des questions vraiment brûlantes ! À propos, je m'interroge : la descente de gradient stochastique est tout sauf révolutionnaire, ça existe depuis des décennies. Depuis, personne n'a rien trouvé de plus performant ? Et aussi, est-ce que tous les mathématiciens qui se lancent dans l'IA (il y en a littéralement des tonnes) se condamnent à faire de la recherche incrémentale sur une technique aussi vieille que le gradient stochastique ? Je veux dire, depuis le temps que les gens étudient ça, ça doit être incroyablement difficile de découvrir de nouveaux résultats pertinents sur le sujet non ? J'ai l'impression que le domaine est un peu saturé, niveau recherche… Ne reste-t-il que les questions ultra difficiles sur lesquelles les plus grands se sont cassé les dents, ou bien y a-t-il encore des domaines en friche pour toute la génération de mathématiciens qui déferle dans le domaine de l'IA ?

  8. Olivier Bernard

    "Il semble que le ML prometteur est celui qui parvient à  intégrer des notions fondamentales de Turing et de la formule de Bayes tout en obéissant aux paragigmes d'exploration des réglages par descente de gradient qu'impose le paradigme de la programmation différentielle."
    Ça aurait pu être intégré à un sketch des inconnus sur M.Gentil ! (Oui jusque là tout est clair)

  9. Ph.So.

    Super vidéo OK, mais SUPER TURING aussi décidément ! Mais aurait-il pu nous dire si une grosse bidouille dégueulasse (emprunté à Lê…) serait capable de faire 1200 bornes pour revenir chez son maître, tout ça, pour toujours faire ses besoins à maximum 12 cm de sa litière !!! Faut être juste être chat pour ça !

  10. antoine

    Pour programmer, il suffit de suivre le cours de Stanford sur le machine learning, les 2 ou 3 chapitres sur les réseaux de neurones, avec Matlab ou Octave. Sinon on trouve aussi quelques tuto en Python qui n'utilisent pas TensorFlow, pour apprendre le fonctionnement

  11. Charles Bracoud

    Salut,
    Je me demandais, si on augmente le nombre de '' boutons'' cela implique t il une meilleure précision (après réglage) ? ou au contraire le tout pourrait il souffrir de sur-interprétation ?

    Sinon super vidéo, comme d'habitude 😉

  12. pierot89

    J'ai l'impression qu'avec cette méthode on arrive presque systématiquement à un minimum local (de l'erreur) quand bien même ce minimum local serait très différent du (vrai) minimum.

    Après peut être qu'afin d'éviter que ce minimum local soit trop différent du vrai minimum les codeurs relancent leur algorithme d'apprentissage depuis le début en mélangeant les donnés d'apprentissages. Intuitivement c'est comme ca que je resoudrai le problème : si on trouve apres quelques essaies que les résultats changent peu on peut en deduire qu'on a un "bon" minimum local (même si en théorie il peut y avoir une grande majorité de minimum locaux très différents du minimum global et donc cette methode ne serait plus très efficace).

    Bon peut être aussi qu'en pratique la différence entre le minimums est faible ou bien même il n'y a presque jamais de minimums locaux et donc tout le monde s'en fiche ^^

  13. Sami

    Moi qui suis dejà renseigné sur le sujet, je trouve trouve ta maitrise du sujet un peu approximative et tes explications beaucoup trop simple et imprécise! Mais tout était plus clair quand de ton propre aveu ne jamais avoir programmé un réseau de neurones!
    Je suis désolé j'essaye vraiment d'etre constructif et je me dois de prévenir ton audience de prendre ton contenu avec des pincettes

  14. ano nyme

    Je rappelle une énième fois que cette méthode n'est pas "meilleur que l'homme" (si on suppose que c'est comparable en prenant en compte l'environnement et ses contraintes au minimum), de part la consommation, la vitesse de convergence, l'instabilité etc… Même la vitesse d'analyse est pas terrible. ça reste tout de même potable. Comparer cette méthode à l'homme c'est tout simplement comparé des Volt et des Ampères, où comparer des choses qui n'ont strictement rien à voir. Après si vous aimez mélanger les unités n'importes comment et comparer n'importe quoi, la comparaison peut se faire.
    Y a un truc qui s'appelle le contexte/les hypothèses c'est chiant mais faut le prendre en compte pour toute comparaison sinon on peut raconter tout et son contraire et ça deviens foireux.

  15. Yarflam

    Ah j'aime bien cette vidéo ! Concernant la problématique du Googleplex de neurones, ce n'est pas nécessaire en pratique – tu peux très bien utiliser du Deep Learning pour réduire la complexité à un plus petit vecteur. Ça prendra du temps mais largement moins qu'en utilisant seulement du Machine Learning. Quant aux algorithmes génétiques c'est indispensable pour former des IA de jeux, j'en ai codé un (combiné avec un réseau de neurones) pour apprendre à des Flappy Birds à voler – c'est très efficace ! Sinon merci pour ton livre La Formule du Savoir, je me régale – je le fais durer pour être en forme à chaque lecture ^^. Tu peux également être fier, je t'ai repris et cité en (première) source dans mon mémoire de fin d'études intitulé "L'intelligence Artificielle au service de l'entreprise".

  16. Johann

    À noter que les versions modernes d'algorithmes génétiques pour problèmes numériques ont convergées (indépendamment, et sans doute même avant) vers le même type de schéma que la descente de gradient stochastique. Ont commence même à avoir des frameworks commun de réflexion via des outils de… géométrie différentielle.

  17. MegaNucleaire

    la descente de gradient me fait penser au pb de minimisation d'une fonction ( ex : la méthode de Newton). Or la descente de gradient peut mener à un minimum local duquel l'algo ne peut pas sortir à part si on le "force" (ex le recuit simulé). Cette problématique s'applique-t-elle aussi aux réseaux de neurones, si oui comment est-elle résolue ?

  18. Matthieu D.

    TensorFlow est costaud pour quelqu'un qui commence en IA. Je recommanderais plutôt Keras (qui se base sur TensorFlow en fournissant un API plus haut niveau). On trouve des tutoriels en lignes pour faire un réseau type LeNET-5 qui reconnaît des caractères manuscrits. A partir de là, le mieux est ensuite de prendre un bon cours de deep learning pour bien comprendre tous les types de "layers", à quoi ils servent, et comment les utiliser.

  19. Antyrit

    Bonjour et merci pour ta chaîne !
    Je me posais une question, la descente de gradient ne risque t'elle pas de finir sur un minima local ? Et du coup, la descente de gradient stochastique permet t'elle d'éviter ce problème en plus de faciliter le calcul ?
    Super vidéo!

  20. SeBy DocKy

    PyTorch/TensofrFlow avec binding Pyton qui doivent représenter 95% des développement Deep. Sinon MatconvNet pour un binding Matlab. Toutes ces boites sont pluggées avec CudaNN pour l’accélération GPU dans tous les cas.

  21. Elnala Ombrebois

    La perte de turing est un drame sans nom pour l'informatique et les mathématique…

    Et concernant le développement d'IA, n'importe quel langage est utilisable, mais les orientés objet facilitent les choses, python 3 reste à mon avis un must (je suis dev).

  22. EzechielProd

    Il est possible de coder un réseau de neurones avec un nombre arbitraire de couches en moins de 80 lignes sur matlab ou python en n'utilisant aucune librairie/API :p

  23. Patrice FERLET

    Pour débuter, mieux vaut utiliser keras qui est une surcouche de tensorflow. Et python reste maître dans ce domaine même si le langage R est aussi pas mal utilisé. Pour info, je bosse sur les réseaux de neurones depuis quelques mois et sans avoir trop de compétences mathématiques on arrive quand même à capter le principe et sortir des trucs assez étonnants. Après, force est de constater que oui… Les maths sont nécessaires quand on veut aller plus loin. Et ta chaîne m'a énormément aidé à reprendre le pli. Merci à toi. PS je prépare une chaîne pour la vulgarisation informatique… Ça prend du temps mais je vais y arriver, j'essaie de faire un truc qualitatif. Et j'y parlerai de réseau de neurones un jour 😁

  24. DIMENSION

    Ça serait tellement plus simple si on avait une puissance de calcul infinie

  25. avcools

    C'est surprenant comme ses "machines" se rapprochent de plus en plus des humains . En effet avec la descente de gradient stochastique, on en revient avec notre système d'éducation où les élèves doivent comprendre un certains nombre de donnés élémentaire (math, langues, chimie,…). Pour arriver à des systèmes plus complexes et plus précis. Au fond, on ne fais que recopier le modèle de la nature. Peut être qu'un jour, une machine nous expliquera comment les êtres humains fonctionne. Merci pour cette vidéo très claire ^^ (désolé pour l'orthographe)

  26. Thomas Saint-Gérand

    Pour coder un réseau de neurones, on peut écrire une librairie dans n'importe quel langage. Au final, on est juste en train de calculer une composition de non-linéarité et de multiplication et addition de matrices donc le concept de base est assez simple. Cependant pour débuter, Tensorflow est un très bon pari, si vous voulez une libraire encore plus haut niveau (donc plus facile d'utilisation car built on top of Tensorflow) c'est Keras. PS: les API les plus développées pour ces libraires sont en Python
    Aussi, pour les algorithmes génétiques (et plus généralement l'Evolutionary Computing) on n'a pas obligatoirement une population constitué d'IAs mais peu aussi être un nuage de points pour lesquels on va évaluer leur valeurs par une fonction qu'on doit optimiser dans le cadre de Black-Box Optimization entre autres.

  27. Gavrilenko Stanislas

    Question peut-être un peu hors sujet pour cet épisode, mais en rapport avec la série : pourquoi google photo est si mauvais pour classifier les images (en classe montagne, lac, …) ?
    Selon Lee, les meilleurs algos de classification de photo sont meilleurs que les êtres humains, pour google ce n'est pas le cas ?

  28. Naoned Troll

    Grâce à ta vidéo j'ai enfin trouvé la réponse a la grande question de la vie, de l'univers et du reste!

  29. TPM baddou

    Bonsoir;
    Depuis quelques semaines je vous suit pas sur vos vidéos de l'IA.
    Ce que j'aurais aimé est que vous présentez un exemple d'algorithme commenté de l'IA (neuronale) avec possibilité de le tester sur soi même.
    Vous avez trop parlé de l'IA en théorie mais maintenant passons à la pratique!! merci

  30. Nemesis666first

    3:00 Pourquoi ne pas considérer que l'erreur = P ; tout simplement ? Après tout, P² ou P, bon, c'est blanc-bonnet et bonnet-blanc, non ?

Your email address will not be published. Required fields are marked *