P^2+Σ2P
Blog about infinite pattern
2020年10月25日日曜日
Noiseless coding theorem
How is information source shorten?
There are M sources.
S=(a1,a2,・・, aM)
a is each information and p is possibility.
pi=P(ai)
You encode it.
K(ai)=ci
L is the length.
li=|K(ai)|
Entropy
is I(E), and possibility of E is P(E).
∴
EX.
This is
the first dimension
.
0 件のコメント:
コメントを投稿
次の投稿
前の投稿
ホーム
登録:
コメントの投稿 (Atom)
0 件のコメント:
コメントを投稿