毎週水曜日更新中!
…
continue reading
محتوای ارائه شده توسط Hajime Morrita , Jun Mukai. تمام محتوای پادکست شامل قسمتها، گرافیکها و توضیحات پادکست مستقیماً توسط Hajime Morrita , Jun Mukai یا شریک پلتفرم پادکست آنها آپلود و ارائه میشوند. اگر فکر میکنید شخصی بدون اجازه شما از اثر دارای حق نسخهبرداری شما استفاده میکند، میتوانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal
Player FM - برنامه پادکست
با برنامه Player FM !
با برنامه Player FM !
#111: Formal Algorithms for Transformers
Manage episode 359821334 series 2151064
محتوای ارائه شده توسط Hajime Morrita , Jun Mukai. تمام محتوای پادکست شامل قسمتها، گرافیکها و توضیحات پادکست مستقیماً توسط Hajime Morrita , Jun Mukai یا شریک پلتفرم پادکست آنها آپلود و ارائه میشوند. اگر فکر میکنید شخصی بدون اجازه شما از اثر دارای حق نسخهبرداری شما استفاده میکند، میتوانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal
勤務先への脅威に怯える森田が Transformer を復習しました。ご意見ご感想などはおたより投書箱や Reddit にお寄せください。iTunes のレビューや星も歓迎です。
今回は録音に際し Adobe Podcast (beta) のバグを引き当ててしまい、向井と森田の音声トラックがずれてしまいました。ごめんなさい。次回からは non-beta の手堅いツールで録音しようと思います・・・。
- [2207.09238] Formal Algorithms for Transformers
- #15 – Neural Machine Translation by Jointly Learning to Align and Translate
- #38 – Subword Regularization: Improving Neural Network Translation Models with Multiple Subword Candidates
- #51 – Attention Is All You Need
- #53 – BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
- Jay Alammar – YouTube
- GitHub – openai/tiktoken: tiktoken is a fast BPE tokeniser for use with OpenAI’s models.
- GitHub – karpathy/nanoGPT: The simplest, fastest repository for training/finetuning medium-sized GPTs.
- Let’s build GPT: from scratch, in code, spelled out. – YouTube
145 قسمت
Manage episode 359821334 series 2151064
محتوای ارائه شده توسط Hajime Morrita , Jun Mukai. تمام محتوای پادکست شامل قسمتها، گرافیکها و توضیحات پادکست مستقیماً توسط Hajime Morrita , Jun Mukai یا شریک پلتفرم پادکست آنها آپلود و ارائه میشوند. اگر فکر میکنید شخصی بدون اجازه شما از اثر دارای حق نسخهبرداری شما استفاده میکند، میتوانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal
勤務先への脅威に怯える森田が Transformer を復習しました。ご意見ご感想などはおたより投書箱や Reddit にお寄せください。iTunes のレビューや星も歓迎です。
今回は録音に際し Adobe Podcast (beta) のバグを引き当ててしまい、向井と森田の音声トラックがずれてしまいました。ごめんなさい。次回からは non-beta の手堅いツールで録音しようと思います・・・。
- [2207.09238] Formal Algorithms for Transformers
- #15 – Neural Machine Translation by Jointly Learning to Align and Translate
- #38 – Subword Regularization: Improving Neural Network Translation Models with Multiple Subword Candidates
- #51 – Attention Is All You Need
- #53 – BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
- Jay Alammar – YouTube
- GitHub – openai/tiktoken: tiktoken is a fast BPE tokeniser for use with OpenAI’s models.
- GitHub – karpathy/nanoGPT: The simplest, fastest repository for training/finetuning medium-sized GPTs.
- Let’s build GPT: from scratch, in code, spelled out. – YouTube
145 قسمت
All episodes
×به Player FM خوش آمدید!
Player FM در سراسر وب را برای یافتن پادکست های با کیفیت اسکن می کند تا همین الان لذت ببرید. این بهترین برنامه ی پادکست است که در اندروید، آیفون و وب کار می کند. ثبت نام کنید تا اشتراک های شما در بین دستگاه های مختلف همگام سازی شود.