07/11/2024 / 最終更新日時 : 11/01/2025 Blue 統計学 相互情報量の定義とその重要性をわかりやすく解説 | KLダイバージェンス 相互情報量とは何か?この記事では、情報理論の重要概念である相互情報量の定義と性質を、エントロピーやKLダイバージェンスとの関係からわかりやすく解説。機械学習での活用法(変数選択など)も紹介します。
03/31/2024 / 最終更新日時 : 10/26/2025 Blue 機械学習 【深層生成モデル】VAEの仕組みをわかりやすく解説|ベイズ統計 こんにちは、青の統計学です。 今回は、深層生成モデルのVAEについて解説いたします。 ノイズに頑健な深層生成モデルとして、画像生成モデルとして利用されているので、生成AIの利用が広まってきた今勉強する価値ありです! VA […]
12/21/2023 / 最終更新日時 : 10/26/2025 Blue 統計学 【AICで使う】KL divergence(カルバック-ライブラー情報量)をわかりやすく解説|python こんにちは、今回はKL divergenceを解説します。 KL divergenceは、2つの確率分布間の相違を測定するために使用され、NLPにおける文書や単語の分布を比較する際に役立ちます。 レベル感としては、統計検 […]
06/03/2022 / 最終更新日時 : 10/26/2025 Blue 統計学 【モデル選択】AIC(赤池情報量基準)についてわかりやすく解説 1:AICとは何か AICは「複数の統計モデルのうち、どれがより予測に適しているか」を評価するために考案された指標です。 もし「当てはまりの良さ」だけを追求すると、パラメータを増やせば増やすほどモデルはデータにぴったり合 […]
05/27/2022 / 最終更新日時 : 11/04/2025 Blue 統計学 尤度比検定とは?わかりやすく解説|カイ2乗分布との関わり 汎用性の高い「尤度比検定」をわかりやすく解説。2つの統計モデル(完全モデル・縮小モデル)の適合度を比較する手法、検定統計量とカイ2乗分布の関係、GLMでのPython実装例までを紹介します。