マルレク「なぜ?で考える ChatGPT の不思議」 | Peatix tag:peatix.com,2011:1 2023-02-13T21:03:15+09:00 Peatix 丸山不二夫 マルレク「なぜ?で考える ChatGPT の不思議」 tag:peatix.com,2023:event-3455222 2023-01-14T19:00:00JST 2023-01-14T19:00:00JST ChatGPT試してみましたか?なかなか驚きです。今までのAI技術と一味違います。いろいろ不思議なことに気がつきます。第一。なぜ、こんなになめらかに賢く、人間と対話できるのでしょうか?第二。なぜ、こんなにも賢く見えるのに、平気で間違ったことを言うのでしょう?今回のセミナーは、主要にこの二つの「なぜ?」に答えようとしたものです。あわせて、今回のセミナーは、次のような疑問に答えようとしています。「ChatGPTは、どのようなカラクリで、こうしたふるまいを可能にしているのでしょう?」「OpenGPTは、AI技術のどのような蓄積から生まれ、AI技術をどこまで高めるのでしょう?」「OpenGPTは、そもそも、ことばの意味をどのように理解しているのでしょう?」「OpenGPT以降のAI技術は、どのように発展するのでしょう?」次のような構成を予定しています。ChatGPT 対話サンプル ChatGPT の素晴らしい対話のサンプル ChatGPT が間違ったことを言うサンプル ChatGPTの「人間のフィードバックからの強化学習」 𝐶ℎ𝑎𝑡𝐺𝑃𝑇の方法-- 三つの訓練ステップ ChatGPTの限界とIterative deployment ChatGPTの教育環境 彼は何を学んできたのか? 彼の人間の先生が準備したこと ChatGPTの成長 – GPT vs. InstructGPT ChatGPT成立の背景 モデルの規模の問題 現代のAIは、数学が苦手 セミナーのまとめページはこちらです。https://www.marulabo.net/docs/chatgpt/詳しくは、MaruLaboで更新される動画を参照ください。 https://www.youtube.com/playlist?list=PLQIrJ0f9gMcOX9oSKXRR87BgMkql5dvrx参考文献[2022/11/08] ChatGPT: Optimizing Language Models for Dialogue (OpenAI)https://openai.com/blog/chatgpt/[2022/10/24] Evaluating the Impact of Model Scale for Compositional Generalization in Semantic Parsing (Google Reseach)https://arxiv.org/abs/2205.12253 [2022/10/19] Scaling Laws for Reward Model Overoptimization (OpenAI)https://arxiv.org/abs/2210.10760 [2022/04/04] Training language models to follow instructions with human feedback (OpenAI)https://arxiv.org/abs/2203.02155 [2022/02/19] Competition-Level Code Generation with AlphaCode (Deep Mind)https://storage.googleapis.com/deepmind-media/AlphaCode/competition_level_code_generation_with_alphacode.pdf [2022/02/03] Formal Mathematics Statement Curriculum Learning (OpenAI) https://arxiv.org/abs/2202.01344 [2017/07/20] Proximal Policy Optimization Algorithms (OpenAI)https://arxiv.org/abs/1707.06347 Updates tag:peatix.com,2023-01-04 13:35:10 2023-01-04 13:35:10 イベント詳細情報を更新しました。 Diff#1309129