Comments

  1. kaoutar elhaloui

    Bonjour, Merci pour vos vidéos. Pour un problème de régression avec des réseaux de neurones, peut ont appliquer une pénalité/donner plus d'importance pour des données particuliers (par exemple à proximité de 0) lors de l'entrainement ?, autrement tolérer moins de fautes sur les prédictions de ces données là ?

  2. Baptiste Piguet

    Je t'aime mec, ça fait plus d'une semaine que je cherche à savoir comment les réseaux de neurones ajustent leurs modèles prédictifs

  3. World of Blitzkrieg

    J'ai une petite question tu as expliqué comment modifier concretement le biais du neurone qui est alors égal a l'erreur c'est a dire l'urgence a corriger le neurone mais pour les synapse je n'ai pas vu concretement comment on calculait l'urgence et comment on modifiait le poids en conséquence ?

  4. Antoine GIORDANO

    Super vidéo encore !
    J'essaie de recréer un réseau de neurones en Java à partir de 0 et je rencontre un problème…
    Vu que notre réseau apprend par "set" de données, quelles valeurs d'inputs un neurone doit utiliser pour calculer sont gradient et modifier ses coefficients ? Le réseau doit-il utiliser un des exemples du set de données pour que chaque neurones se règle, ou également une moyenne comme pour l'erreur, ou encore autre chose ?..
    Merci si quelqu'un peut m'éclairer 🙂

  5. World of Blitzkrieg

    J'adore vraiment tes vidéos mais des fois j'ai du mal a tout comprendre et quand tu donne un exemple concret comme ici ou bien que tu fait un parallèle concret je trouve que l'on comprend beaucoup mieux. En tout cas merci d'être là pour nous apprendre tout ça!

  6. Romain Bajoit

    C'est quand même ambitieux de tenter d'expliquer la backpropagation en 9min57. C'est l'algorithme qui a permis aux réseaux neuronaux d'être utiliser et est considéré comme un des plus importants de l'AI alors pourquoi ne pas passer un peu plus de temps dessus ? Il n'est pas compliqué à comprendre mais peut être compliquer à expliquer .. surtout en si peu de temps 🙁

    La vidéo est très bien mais manque de clareté à mon goùt, tu as l'air si pressé d'en finir avec 😀
    (J'ai quand même mis un pouce dans les airs et tiens à te faire remarqué que ton contenu est quand même d'un niveau incroyable dans le domaine de YouTube !<3)

  7. Frederic le gueuziec

    La première couche doit attirée l'attention du sujet
    La deuxième couche correspond à l'interprétation et l'imagination. Le calcul de principe est toujours le même mais le résultat diffère suivant la personne. Après les décisions ultimes commandes les réactions,, mais il y'a des mais, l'émotion et la sensibilité de chacun, l'IA elle n'aura jamais aucune émotion et sensibilité.

  8. Nicolas David

    Salut ! Est-ce que tu pourrais nous parler un peu plus de cette fonction d'activation non-linéaire des neurones ? Comment la choisit-on ? Pourquoi n'est-elle pas considérée comme un paramètre modifiable du réseau ?

  9. Thomas Arnaud

    Est-ce que la rétropropagation est une caractéristique de nos vrais neurones ? Ou bien l'analogie des neurones s'arrête là ?

  10. K A

    Est il possible de trouver des minimaux locaux avec un algorithme de colonies d'abeille dans le cadre de réseaux neuronaux en backpropagation ? Je pense que ces algorithmes demandent beaucoup de temps de calcul surtout pour beaucoup de dimensions mais je voulais tout de même savoir si ca se faisait en pratique.

  11. bishmol

    Avec cette retropropagation, n'y a t'il pas le risque que certains groupes de neurones se retrouvent pratiquement ignorés parce qu'inutiles ? Ne serait-il pas intéressant que ces groupes ignorés se désactivent pour optimiser le processus, ou qu'ils mutent de façon plus ou moins aléatoire pour donner une chance au système d'évoluer dans le bon sens ?

  12. Yvonnig Jan

    Est-ce que tu serais chaud pour nous faire un follow-up de la preuve de l'hypothèse de Riemann dans les futures vidéos ? J'ai cherché quelques infos mais ça n'est pas toujours clair …

  13. Fanch cube

    pour contrer un éventuel minimum local, il me semble qu'on peut faire subir un "électrochoc" au réseau, càd remettre à zéro qq neurones/synapses au hasard, comme ça le réseau explore de nouvelles branches, qui seront de toutes façons ré-affinées par la rétropropagation

  14. Pradow

    Petite question : les RN convergent-ils forcement?
    Et on peut s'attendre à plusieurs valeurs de convergence pour les boutons non? C'est un problème?

  15. Pradow

    Le RN c'est pas un système complètement bayésien par hasard? Où on part d'un à priori sur les boutons, et dont les positions s'ajustent à chaque nouvelle valeur d'entrée lors de la phase d'apprentissage

  16. faouzi habbaj

    donc pour une IA par rapport a un programme fixe comme une calculatrice 1+1 sera peut être 2 non certainement 2 et ca c'est un grave System de doutes parce que sur l’efficacité il sera plein de failles a connaitre plus tard

  17. omi nium

    Appliquer ce genre de réseau neuronal vertical à un groupe d'individus( un peuple et un chef au bout) nous apprend ce qu'est le totalitarisme avec son obsession du respect absolu de l'ordre et de l'information( comme chez les militaires ou en corée du nord ou en chine) qui permet une basse fréquence. Mais la démocratie provient de liaisons neuronales horizontales, c'est à dire que l'info est partielle, ( y'a de la fake news), et il faut constamment chercher à estimer son niveau de "crédibilité"( le blockchain est ainsi basé sur une constance de cette recherche), le système est plus redondant mais demande une fréquence plus élevée( pour confirmer les infos). Ce qu'on apprends avec les tests, c'est que le réseau a le même travers qu'un pays totalitaire, c'est à dire la sur-spécialisation, il est super bon à un truc, puis ensuite ne sait plus rien faire d'autre, et mets beaucoup de temps à se réajuster en perdant les capacités précédentes.
    Quand on discute alors démocratie, adaptation, future de l'humanité, recherche du bonheur, on pige bien qu'il y a un lien avec la recherche en IA. Et cela va encore plus loin en exportant la recherche sur la communication entre les astres dans l'espace. Une lumière communique une fréquence, un ordre qui donne une probabilité, cette dernière alors arrive ou non à se développer et transformer ( convaincre)son environnement. L'humanité serait elle-même la réponse à un truc.. 42 ? qui sait.

  18. Theo I

    C'est génial comme truc les réseaux de neurones! Mais comment ça marche entre le hardware et le software?

    parce que si ces neurones fonctionnent selon une formule prédéfinis, est-ce qu'il ne suffit pas simplement de modifier cette formule pour pirater (ou du moins crasher) le reseau?

  19. Morgan Klein

    Merci beaucoup pour cette épisode ! On reviens enfin à des épisodes où on doit se casser la tête et être vraiment concentré. C'est ce que je préfère dans tes épisodes. Où on apprends de nouvelles choses !

  20. Colin Pitrat

    J'ai enfin lu ton papier. Il est super intéressant et maintenant j'ai plein de références à creuser 🙂

    Si i'ai bien compris, la partie 3 propose d'estimer la moralité des actions de l'IA en se basant sur la façon dont le monde extérieur évolue en fonction des décisions de l'IA (donc une approche conséquentialiste, ce qui me va tout à fait). Là où ça cloche à mon avis, c'est que la corrélation entre les actions de l'IA et l'évolution du monde seront faibles et qu'en plus il y'aura en général un délai important (tu parles de l'étape n et n+1 comme si il n'y avait pas d'autre décision prise entre).

    Si l'IA tue un enfant mais qu'au même moment un armistice est signé, elle considèrera son action bonne ? Et inversement si elle décide de sauver un enfant mais qu'une guerre est déclarée elle considèrera son action mauvaise ? Et si elle décide de baisser les taux d'intérêt (ce qui n'aura pas d'effet immédiat) mais qu'au même moment une centrale nucléaire explose ?

    Du coup, à moins que j'ai raté quelque chose, il me semble nécessaire d'ajouter un problème à ta liste: identifier les liens de causalité entre les décisions de l'IA et les évènements qui se produisent dans le monde.

  21. nono roberto

    Un épisode hardcore sur la retropropagation des neurones serait possible ? Pitié !

  22. Etienne Verpin

    Il y a un élément supplémentaire quni d'un point de vue bayésien, fait douter de la réalité de la démonstration proposée sur la conjecture de Riemann, c'est l'âge du capitaine. Je me souviens avoir lu une citation de Laurent Schwartz, dans laquelle, pour expliquer les baisses de capacités liées à l'âge, il nous disait qu'à vingt ans il espérait résoudree problème de Riemann,; dans la quarantaine, il espérait lire une telle démonstration, et qu'au moment où il parlait, vers la fin de sa vie, il espérait juste apprendre qu'il existait une preuve.
    Cela me parait peu crédible qu'un homme de 89 ans puisse faire une telle avancée en science, et en mathématique particulièrement.

  23. Nicolas Borderies

    Bravo pour ton travail de vulgarisation acharné et régulier. Je me permet de rajouter un petit commentaire technique sur la fin de la vidéo. Cela fait une différence non-négligeable de minimiser l'erreur quadratique ou l'erreur absolue lors d'un apprentissage statistique, notamment en terme de stabilité/robustesse de la solution obtenue au regard de l'ensemble d'entraînement (cf http://www.chioka.in/differences-between-l1-and-l2-as-loss-function-and-regularization/)

  24. Battquif

    Je trouve ça dommage qu'on ai aussi peu parlé des fonctions d'activations, et à contrario qu'on parle autant de ces "chats". C'est toujours l'exemple pris, mais un réseaux peut faire autre chose que de la classification non ? En tout cas, vu comme ça j'ai du mal à m'imaginer un réseaux déterminer une valeur "quelconque"… Par exemple, en utilisant la sigmoid, comment déterminer la distance entre 2 points (pourtant à priori très simple) ? Pour des grandes valeurs, la précision sera désastreuse avec la sigmoid. Mais si on utilise l'identité (ou autre fonction "divergente"), les valeurs peuvent très vite être énorme (il y a des carrés dans la théorie….) et dépasser les capacités de la machine. J'espère qu'on en saura plus après !
    Sinon merci pour l'explication de la descente des gradients, pas simple à comprendre ce "pourquoi changer ce qui rentre si on peut changer le poids" ect…

Your email address will not be published. Required fields are marked *