Теория информации
До ответа на первый вопрос все эти исходы можно считать равновероятными, так что энтропия Н(А) опыта А равна log 10 3,32 бита.
...излишне говорить о том, что теория информации имеет огромное значение для развития современной науки и техники.