You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Svensson, Hampus Gummesson, et al. “Utilizing Reinforcement Learning for de Novo Drug Design.” arXiv [q-bio.BM], 30 Mar. 2023, http://arxiv.org/abs/2303.17615. arXiv.
Deep learning-based approaches for generating novel drug molecules with specific properties have gained a lot of interest in the last years. Recent studies have demonstrated promising performance for string-based generation of novel molecules utilizing reinforcement learning. In this paper, we develop a unified framework for using reinforcement learning for de novo drug design, wherein we systematically study various on- and off-policy reinforcement learning algorithms and replay buffers to learn an RNN-based policy to generate novel molecules predicted to be active against the dopamine receptor DRD2. Our findings suggest that it is advantageous to use at least both top-scoring and low-scoring molecules for updating the policy when structural diversity is essential. Using all generated molecules at an iteration seems to enhance performance stability for on-policy algorithms. In addition, when replaying high, intermediate, and low-scoring molecules, off-policy algorithms display the potential of improving the structural diversity and number of active molecules generated, but possibly at the cost of a longer exploration phase. Our work provides an open-source framework enabling researchers to investigate various reinforcement learning methods for de novo drug design.
Schneider, Gisbert, and Uli Fechner. “Computer-Based de Novo Design of Drug-like Molecules.” Nature Reviews. Drug Discovery, vol. 4, no. 8, Aug. 2005, pp. 649–63.
新薬開発への計算機の応用についてのレビュー。
Fedus, William, et al. “Revisiting Fundamentals of Experience Replay.” Proceedings of the 37th International Conference on Machine Learning, edited by Hal Daumé Iii and Aarti Singh, vol. 119, PMLR, 13--18 Jul 2020, pp. 3061–71.
Replay bufferについて
Blaschke, Thomas, et al. “Memory-Assisted Reinforcement Learning for Diverse Molecular de Novo Design.” Journal of Cheminformatics, vol. 12, no. 1, Nov. 2020, p. 68.
似た構造の分子を予測することにペナルティを課す。Diversity Filter.
The text was updated successfully, but these errors were encountered:
Svensson, Hampus Gummesson, et al. “Utilizing Reinforcement Learning for de Novo Drug Design.” arXiv [q-bio.BM], 30 Mar. 2023, http://arxiv.org/abs/2303.17615. arXiv.
多様性が必要となる文脈では同じ発想が使えそう。すなわち応用は創薬以外にも!
Abstract
(DeepL翻訳)
特定の性質を持つ新規の医薬品分子を生成するための深層学習ベースのアプローチは、ここ数年、多くの関心を集めている。最近の研究では、強化学習を利用した文字列ベースの新規分子生成の有望な性能が示されている。本論文では、強化学習をde novoドラッグデザインに利用するための統一的なフレームワークを開発し、ドーパミン受容体DRD2に対する活性が予測される新規分子を生成するRNNベースのポリシーを学習するために、様々なオン/オフポリシー強化学習アルゴリズムと再生バッファを体系的に研究している。その結果、構造的多様性が重要な場合、少なくともトップスコアとロースコアの両方の分子をポリシーの更新に使用することが有利であることが示唆された。また、生成されたすべての分子を繰り返し使用することで、オンポリシーアルゴリズムの性能安定性が向上するようです。さらに、高スコア、中間スコア、低スコアの分子を再生する場合、オフポリシーアルゴリズムは、構造多様性と生成される活性分子の数を改善する可能性を示すが、探索段階が長くなることを代償としている可能性がある。本研究は、de novoドラッグデザインのための様々な強化学習法を研究するためのオープンソースのフレームワークを提供するものである。
コード
GitHub
解決した課題/先行研究との比較
技術・手法のポイント
評価指標
感想
重要な引用
The text was updated successfully, but these errors were encountered: