Argmax

Auteur(s): Vahe Hagopian Taka Hasegawa Farrukh Rahman
  • Résumé

  • A show where three machine learning enthusiasts talk about recent papers and developments in machine learning. Watch our video on YouTube https://www.youtube.com/@argmaxfm

    © 2024 Argmax
    Voir plus Voir moins
Épisodes
  • Mixture of Experts
    Oct 8 2024

    In this episode we talk about the paper "Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer" by Noam Shazeer, Azalia Mirhoseini, Krzysztof Maziarz, Andy Davis, Quoc Le, Geoffrey Hinton, Jeff Dean.

    Voir plus Voir moins
    55 min
  • LoRA
    Sep 2 2023

    We talk about Low Rank Approximation for fine tuning Transformers. We are also on YouTube now! Check out the video here: https://youtu.be/lLzHr0VFi3Y

    Voir plus Voir moins
    1 h et 3 min
  • 15: InstructGPT
    Mar 28 2023

    In this episode we discuss the paper "Training language models to follow instructions with human feedback" by Ouyang et al (2022). We discuss the RLHF paradigm and how important RL is to tuning GPT.

    Voir plus Voir moins
    57 min

Ce que les auditeurs disent de Argmax

Moyenne des évaluations de clients

Évaluations – Cliquez sur les onglets pour changer la source des évaluations.