تاريخ الفيزياء
علماء الفيزياء
الفيزياء الكلاسيكية
الميكانيك
الديناميكا الحرارية
الكهربائية والمغناطيسية
الكهربائية
المغناطيسية
الكهرومغناطيسية
علم البصريات
تاريخ علم البصريات
الضوء
مواضيع عامة في علم البصريات
الصوت
الفيزياء الحديثة
النظرية النسبية
النظرية النسبية الخاصة
النظرية النسبية العامة
مواضيع عامة في النظرية النسبية
ميكانيكا الكم
الفيزياء الذرية
الفيزياء الجزيئية
الفيزياء النووية
مواضيع عامة في الفيزياء النووية
النشاط الاشعاعي
فيزياء الحالة الصلبة
الموصلات
أشباه الموصلات
العوازل
مواضيع عامة في الفيزياء الصلبة
فيزياء الجوامد
الليزر
أنواع الليزر
بعض تطبيقات الليزر
مواضيع عامة في الليزر
علم الفلك
تاريخ وعلماء علم الفلك
الثقوب السوداء
المجموعة الشمسية
الشمس
كوكب عطارد
كوكب الزهرة
كوكب الأرض
كوكب المريخ
كوكب المشتري
كوكب زحل
كوكب أورانوس
كوكب نبتون
كوكب بلوتو
القمر
كواكب ومواضيع اخرى
مواضيع عامة في علم الفلك
النجوم
البلازما
الألكترونيات
خواص المادة
الطاقة البديلة
الطاقة الشمسية
مواضيع عامة في الطاقة البديلة
المد والجزر
فيزياء الجسيمات
الفيزياء والعلوم الأخرى
الفيزياء الكيميائية
الفيزياء الرياضية
الفيزياء الحيوية
الفيزياء العامة
مواضيع عامة في الفيزياء
تجارب فيزيائية
مصطلحات وتعاريف فيزيائية
وحدات القياس الفيزيائية
طرائف الفيزياء
مواضيع اخرى
Entropy Form
المؤلف:
Garnett P. Williams
المصدر:
Chaos Theory Tamed
الجزء والصفحة:
338
16-3-2021
1615
Entropy Form
The last quantity on the right, conditional entropy HY|X, as HX,Y-HX. Substituting that difference in place of HY|X in :
(1)
In this form, mutual information is the sum of the two self-entropies minus the joint entropy.
We used the mutually associated case to derive Equation 1. However, Equation 1 also applies to the mutually unassociated case. For that case, mutual information turns out to be zero. To see that, we use the equation for the unassociated case. Using that definition, we substitute HX+HY in place of HX,Y in Equation 1. That gives IY;X=HY+HX- (HX+HY), or IY;X=0. So, the mutual information of two independent systems is zero. In other words, one system tells us nothing about the other. Incidentally, rearranging Equation 1 provides an alternate expression for joint entropy, HX,Y:
HX,Y = HY + HX-IY;X....... (2)
Joint entropy for two systems or dimensions, whether mutually related or not, therefore is the sum of the two self-entropies minus the mutual information. (For two unrelated systems, mutual information IY;X is zero. Eq. 2 then reduces, HX,Y=HY+HX.)
الاكثر قراءة في مواضيع اخرى
اخر الاخبار
اخبار العتبة العباسية المقدسة

الآخبار الصحية
