Одной из основных задач математического моделирования является обеспечение достоверности полученных решений. Однако, как показывает практика, точные решения достигаются редко. Как правило, приближенные решения используются совместно с точными решениями. Поэтому, помимо выбора оптимального вычислительного метода, важным является оценка степени точности получаемого решения. Её можно выразить численной величиной, называемой погрешностью. Иными словами, погрешность – представляет собой разницу между реальным значением измеряемой величины и ее оценкой или измерением. Она отражает степень неточности измерения и может быть вызвана различными факторами.
При решении практических задач необходимо всегда указывать требуемую точность результата и уметь оценивать точность на основе заданных исходных данных (прямая задача теории погрешностей), а также выбирать необходимую точность исходных данных на основе требуемой точности результата (обратная задача теории погрешностей).
Классификация погрешностей в вычислительных методах имеет важное значение для обеспечения точности и достоверности результатов численных вычислений. Выделяют разные классификации погрешностей. Рассмотрено следующее, наиболее полное, разбиение:
Систематические погрешности – это ошибки, которые возникают из-за определенных систематических факторов. В свою очередь, они включают в себя следующие подвиды:
Аппаратные погрешности – возникают из-за недостаточной точности вычислительных устройств и их компонентов, таких как процессоры, память, жесткие диски и т.д. Эти погрешности могут быть вызваны ограничениями аппаратного обеспечения или ошибками в процессе изготовления.
Алгоритмические погрешности – появляются из-за выбора неправильного алгоритма для решения задачи. Эти погрешности могут быть вызваны неправильным выбором метода или неправильным применением метода.
Погрешности округления – возникают при округлении чисел до определенного количества знаков после запятой. Эти погрешности могут быть вызваны недостаточной точностью вычислительных устройств или программного обеспечения.
Погрешности данных – появляются при использовании неправильных или неточных данных в задаче. Эти погрешности могут быть вызваны ошибками в измерениях, неточностью данных или неправильным выбором данных для решения задачи.
Они могут быть устранены путем тщательного анализа вычислительного процесса и корректировки ошибок.
Случайные погрешности в вычислительных методах возникают из-за случайных факторов, таких как шум в экспериментальных данных, ошибки округления или ошибки, связанные с использованием случайных чисел в алгоритмах.
Эти погрешности могут быть уменьшены за счет увеличения точности вычислений, использования более точных алгоритмов и методов, а также проведения дополнительных экспериментов для получения более точных данных.
Грубая ошибка (промах) – ошибка, возникшая в результате неточности эксперимента.
На рисунке 1 продемонстрированы взаимосвязи видов погрешностей.
Рис. 1 – Виды погрешностей и их взаимосвязи
Помимо двух основных типов, погрешности также можно классифицировать по другим признакам:
Арифметические погрешности в вычислительных методах возникают в результате выполнения арифметических операций над приближенными числами. Они могут возникать из-за округления чисел, ошибок в операциях с плавающей запятой или других причин. Для уменьшения этих погрешностей можно использовать более точные форматы чисел, увеличивать точность вычислений и использовать более совершенные алгоритмы.
Погрешности дискретизации связаны с тем, что исходные данные обычно являются непрерывными функциями, а для решения задачи используются дискретные данные. Эти погрешности могут быть уменьшены за счет использования более точных методов дискретизации, увеличения числа точек дискретизации и проведения дополнительных экспериментов для получения более точной информации.
Также погрешности классифицируют по способу выражения:
Абсолютная погрешность измерения – это разница между точным значением и приближенным значением.
Относительная погрешность измерения – это отношение абсолютной погрешности к точному значению. Обычно она выражается в процентах.
Для характеристики точности СИ часто применяют понятие «приведенная погрешность». Приведенная погрешность средства измерения – это отношение абсолютной погрешности к диапазону возможных значений. Она также выражается в процентах и используется для сравнения погрешностей разных измерений.
Управление погрешностями является важной задачей в вычислительной математике. Поэтому важно уметь определять допущенную погрешность при вычислениях. Рассмотрим несколько доступных для применения методов.
Для определения допущенной погрешности при вычислениях часто используется метод анализа чувствительности. Он заключается в проведении серии вычислений с небольшими изменениями входных данных или параметров, и анализе того, как изменения входных данных влияют на результат.
Также, один из способов определить допущенную погрешность – это определить результаты вычислений с использованием различных значений для переменных и параметров, а затем проанализировать разницу между этими результатами. Например, при выполнении математических вычислений сравнивают полученный ответ с теоретическим значением или с результатом использования аналитических методов.
Также можно использовать специализированные инструменты для анализа погрешностей при вычислениях, такие как методы оценки погрешностей в численном анализе или методы неопределенности в экспериментальных исследованиях.
В любом случае, определение допущенной погрешности – это важная часть процесса вычислений, и метод, выбранный для этой цели, зависит от характера задачи и доступных ресурсов.
Для полного раскрытия темы стоит упомянуть предельную погрешность. Она указывает на степень отклонения измеренного значения от истинного. Эта погрешность представляет собой разницу между наибольшим и наименьшим возможными значениями измеряемой величины. Эта погрешность используется в случаях, когда необходимо оценить точность измерений или определить границы, в которых может находиться истинное значение. Эта величина обычно рассчитывается на основе данных, полученных в результате многократных измерений, и позволяет оценить качество измерительной системы или метода.
Для измерения предельной погрешности можно использовать следующие методы:
Метод стандартных отклонений: этот метод основан на использовании нормального распределения данных. Он предполагает, что истинное значение измеряемой величины находится в пределах одного стандартного отклонения от среднего значения.
Метод границ: этот метод используется, когда известно максимальное и минимальное значения измеряемой величины. Предельная погрешность в этом случае равна разнице между максимальным и минимальным значениями.
Метод среднего квадратического отклонения: этот метод также основан на нормальном распределении данных и предполагает, что предельная погрешность равна двум стандартным отклонениям от среднего значения.
Метод процентной погрешности: этот метод позволяет оценить погрешность в процентах от измеренного значения. Он используется, когда важно знать относительную погрешность, а не абсолютную.
Метод анализа повторяемости: этот метод предполагает проведение нескольких измерений и анализ их повторяемости. Если результаты измерений имеют высокую повторяемость, то можно считать, что погрешность измерений низкая.
В дополнении к вышеперечисленному необходимо уметь находить и оценивать погрешности арифметических операций и при вычислении функций от приближенных значений.
Итак, рассмотрим погрешность вычисления значений функции. Пусть непрерывно дифференцируемая функция, – приближенные значения ее аргументов, для которых – известные абсолютные погрешности.
Для погрешности приближенного значения функции по формуле Лагранжа получаем ,
где
Заменяя получаем
Оценка погрешности соответственно:
где
Относительная погрешность
Допустим, что – неизвестное точное значение некоторой величины, а x – известное приближение к нему. Тогда представим таблицу с формулами для оценки абсолютной и относительной погрешностей для операций: суммы, вычитания, произведения и частного.
Таблица 1
Абсолютная и относительная погрешности для элементарных алгебраических операций
(абс.погрешность) |
(отн.погрешность) |
||
+ |
|||
– |
|||
* |
|||
: |
Рассмотрим некоторые примеры определения погрешности.
Пример 1. Задача: Определить абсолютную погрешность числа 1.41, взятого в качестве приближенного значения числа √2. Известно, что 1.41 меньше √2, но больше 1.42. Значит |√2 -1.41| меньше 0.01.
Можно принять ∆а =0.01. Если учесть, что 1.41 меньше √2, но больше 1.41421, то получим лучшую оценку ∆а=0.00421.
Округлим это число в большую сторону, получим ∆а =0.005.
Пример 2. Задача: Определить относительную погрешность числа √2 с приближенным значением 1.41. Будем полагать при этом, что ∆(а)=0.005.
Вычислим
Помимо рассмотренных задач определения погрешности, существует обратная задача теории погрешности. Ее суть заключается в следующем вопросе: каковы должны быть абсолютные погрешности аргументов функции, чтобы абсолютная погрешность функции не превышала заданной величины.
Для примитивного решения поставленной задачи применяется принцип равных влияний. Принцип равных влияний (или равных весов) в теории погрешности заключается в том, что все возможные значения погрешности рассматриваются как равновероятные и, следовательно, вносят равный вклад в общую погрешность. Если некоторая величина X зависит от нескольких других величин A, B, C и т.д., то каждая из этих величин должна вносить равный вклад в погрешность результата.
Другими словами, если мы имеем формулу X = f(A, B, C), то при оценке погрешности результата мы должны считать, что каждая из величин A, B, C и т.д. вносит вклад в погрешность пропорциональный ее значению. Таким образом, если A, B и C имеют одинаковые погрешности, то они будут вносить равные вклады в погрешность результата.
Принцип равных влияний является очень важным при работе с экспериментальными данными и при расчетах в науке и технике. Он позволяет более точно оценивать погрешности результатов и учитывать все факторы, которые могут повлиять на точность измерений.
В статье рассмотрены различные классификации видов погрешностей, возникающих при выполнении вычислений в вычислительной математике. Каждый вид погрешности имеет свои особенности и может приводить к разным результатам при выполнении вычислений. Поэтому важно учитывать все возможные погрешности при проведении вычислений и использовать методы, которые позволяют минимизировать их влияние на результат.
Кроме того, были рассмотрены методы определения допущенной погрешности при вычислениях, а также оценка погрешности арифметических операций. В дополнение ко всему прочему освящена обратная задача теории погрешности и один из принципов ее решения.
Список литературы
Пирумов У.Г. Численные методы Учебное пособие - М Изд-во МАИ, 1998- 188 с.
Кулакова, С.В. Численные методы: учеб. пособие / С.В. Кулакова; Иван. гос. хим.-технол. ун-т. Иваново, 2018 – 124 с.
Тынкевич, М. А.Введение в численный анализ: учеб. пособие / М. А. Тынкевич,А. Г. Пимонов ; КузГТУ. – Кемерово, 2017 – 176 с.
Агапова, Е. Г. 233 Вычислительная математика: учеб. пособие / Е. Г. Агапова; [науч. ред. Т. М. Попова]. - Хабаровск: Изд-во Тихоокеан. гос. ун-та, 2017. - 92 с.