Студопедия  
Главная страница | Контакты | Случайная страница

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатика
ИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханика
ОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторика
СоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансы
ХимияЧерчениеЭкологияЭкономикаЭлектроника

Прямые и обратные задачи.

Читайте также:
  1. II. Типовые задачи.
  2. II.1. Прямые иммуноанализы
  3. II.2. Непрямые иммуноанализы
  4. Автономия и обратные связи
  5. Алгоритм решения задачи.
  6. Алгоритм решения задачи.
  7. Введение. Семиотика и ее задачи.
  8. Взаимное расположение двух прямых на плоскости.Рассмотрим две прямые, задаваемы уравнениями и .
  9. Вокально - хоровые упражнения, их цель и задачи. Принципы работы над вокально-хоровыми упражнениями.
  10. Вопрос 15. Организация складского хозяйства, сущность и задачи. Классификация складов

Прямые задачи:

а)Проектные ориентированные на расчёт конструктивных параметров

 

б)Поверочные подразумевается подбор оборудования из стандартного ряда,

так что конструктивные параметры фиксированы, а расчётом проверяются

возможности для конкретного случая.

В обратных задачах на основе математической модели и фактических значений

входных и выходных параметров системы определяется плохо поддающиеся

теоретическому прогнозированию некоторые коэффициенты, обычно кинетического

характера (скорости химических реакций, коэффициенты массообмена)

19. Что и каким образом измеряет информационная энтропия?

Информационная энтропия – это мера оценки трудности предугадывания результатов опыта, есть оценка неопределённости.

Информационная энтропия не только мера статической неопределённости, но и мера оценки трудности предугадывания результатов опыта.

-вероятность исхода; k- кол-во исходов; i – кол-во опытов.

Информация – это совокупность знаний, получаемых разными науками.

В теории понятие “информация” - это связи и отношения, устраняющие неопределённость в системе.

Энтропия – как мера статической неопределённости. (трудность предугадывания)

С увеличением числа исходящих величин трудность предугадывания руз-ов опытов увелич.

Требования энтропии:

1) Энтропия должна монотонно возрастать с увеличением числа исходов

2) Энтропия=0, если иметься 1 единственный исход

3) Один опыт С можно рассматривать как 2 опыта В

Суммарное значение энтропии 2-х опытов В, равно энтропии С.

Неопределённость бывает нескольких видов:

а) неизвестность б) расплывчатость, размытость в) случайность




Дата добавления: 2015-01-12; просмотров: 41 | Поможем написать вашу работу | Нарушение авторских прав




lektsii.net - Лекции.Нет - 2014-2024 год. (0.006 сек.) Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав