المرجع الالكتروني للمعلوماتية
المرجع الألكتروني للمعلوماتية

علم الفيزياء
عدد المواضيع في هذا القسم 11603 موضوعاً
الفيزياء الكلاسيكية
الفيزياء الحديثة
الفيزياء والعلوم الأخرى
مواضيع عامة في الفيزياء

Untitled Document
أبحث عن شيء أخر المرجع الالكتروني للمعلوماتية
مدارات الأقمار الصناعية Satellites Orbits
2025-01-11
كفران النعم في الروايات الإسلامية
2025-01-11
التلسكوبات الفضائية
2025-01-11
مقارنة بين المراصد الفضائية والمراصد الأرضية
2025-01-11
بنات الملك شيشنق الثالث
2025-01-11
الشكر وكفران النعمة في القرآن
2025-01-11


Joint and Conditional Entropies  
  
1126   02:09 صباحاً   date: 16-3-2021
Author : Garnett P. Williams
Book or Source : Chaos Theory Tamed
Page and Part : 331


Read More
Date: 25-8-2016 1305
Date: 14-8-2016 1018
Date: 15-3-2021 1475

Joint and Conditional Entropies

Joint and conditional entropies, as defined in this chapter and as used in information theory, apply to two systems or dimensions; for more than two dimensions (discussed later in the chapter), terminology is still developing. For simplicity, we'll usually deal here with two systems. The first, system X, has discrete observations xi; the second, system Y, has values yj.
The probability of seeing particular values of two or more variables in some sort of combination. In fact, we rolled a pair of dice (one white and one green, representing separate systems) and built a joint probability distribution. The joint probability distribution gave the probability of the joint occurrence of each possible combination of values of the two systems. Since entropy is based solely on probability, the idea of joint probability easily applies to a so-called joint entropy—the average amount of information obtained (or uncertainty reduced) by individual measurements of two or more systems.

Having built a word concept of joint entropy, let's follow our standard procedure and express it in symbols. There are two cases. In the first, knowing value x from system X has no effect on the entropy of system Y. (In other words, individual observations x and y aren't mutually related.) In the second, knowing x affects our estimate of the entropy of system Y (and so x and y have some kind of association). For each case, the symbols (and hence the form of the definition) can be either those of probabilities or of entropies.

Mutually unrelated systems
Let's begin by talking about the first case, in which x and y aren't mutually related. We can express joint entropy in terms of probabilities or in terms of entropies. First we'll do the probability form, then the entropy form.




هو مجموعة نظريات فيزيائية ظهرت في القرن العشرين، الهدف منها تفسير عدة ظواهر تختص بالجسيمات والذرة ، وقد قامت هذه النظريات بدمج الخاصية الموجية بالخاصية الجسيمية، مكونة ما يعرف بازدواجية الموجة والجسيم. ونظرا لأهميّة الكم في بناء ميكانيكا الكم ، يعود سبب تسميتها ، وهو ما يعرف بأنه مصطلح فيزيائي ، استخدم لوصف الكمية الأصغر من الطاقة التي يمكن أن يتم تبادلها فيما بين الجسيمات.



جاءت تسمية كلمة ليزر LASER من الأحرف الأولى لفكرة عمل الليزر والمتمثلة في الجملة التالية: Light Amplification by Stimulated Emission of Radiation وتعني تضخيم الضوء Light Amplification بواسطة الانبعاث المحفز Stimulated Emission للإشعاع الكهرومغناطيسي.Radiation وقد تنبأ بوجود الليزر العالم البرت انشتاين في 1917 حيث وضع الأساس النظري لعملية الانبعاث المحفز .stimulated emission



الفيزياء النووية هي أحد أقسام علم الفيزياء الذي يهتم بدراسة نواة الذرة التي تحوي البروتونات والنيوترونات والترابط فيما بينهما, بالإضافة إلى تفسير وتصنيف خصائص النواة.يظن الكثير أن الفيزياء النووية ظهرت مع بداية الفيزياء الحديثة ولكن في الحقيقة أنها ظهرت منذ اكتشاف الذرة و لكنها بدأت تتضح أكثر مع بداية ظهور عصر الفيزياء الحديثة. أصبحت الفيزياء النووية في هذه الأيام ضرورة من ضروريات العالم المتطور.