Классификация и анализ погрешностей в вычислительной математике - Студенческий научный форум

XVI Международная студенческая научная конференция Студенческий научный форум - 2024

Классификация и анализ погрешностей в вычислительной математике

Ковалев С.Н. 1
1Коломенский институт (филиал) Московского политехнического университета
 Комментарии
Текст работы размещён без изображений и формул.
Полная версия работы доступна во вкладке "Файлы работы" в формате PDF

Одной из основных задач математического моделирования является обеспечение достоверности полученных решений. Однако, как показывает практика, точные решения достигаются редко. Как правило, приближенные решения используются совместно с точными решениями. Поэтому, помимо выбора оптимального вычислительного метода, важным является оценка степени точности получаемого решения. Её можно выразить численной величиной, называемой погрешностью. Иными словами, погрешность – представляет собой разницу между реальным значением измеряемой величины и ее оценкой или измерением. Она отражает степень неточности измерения и может быть вызвана различными факторами.

При решении практических задач необходимо всегда указывать требуемую точность результата и уметь оценивать точность на основе заданных исходных данных (прямая задача теории погрешностей), а также выбирать необходимую точность исходных данных на основе требуемой точности результата (обратная задача теории погрешностей).

Классификация погрешностей в вычислительных методах имеет важное значение для обеспечения точности и достоверности результатов численных вычислений. Выделяют разные классификации погрешностей. Рассмотрено следующее, наиболее полное, разбиение:

  1. Систематические погрешности – это ошибки, которые возникают из-за определенных систематических факторов. В свою очередь, они включают в себя следующие подвиды:

  • Аппаратные погрешности – возникают из-за недостаточной точности вычислительных устройств и их компонентов, таких как процессоры, память, жесткие диски и т.д. Эти погрешности могут быть вызваны ограничениями аппаратного обеспечения или ошибками в процессе изготовления.

  • Алгоритмические погрешности – появляются из-за выбора неправильного алгоритма для решения задачи. Эти погрешности могут быть вызваны неправильным выбором метода или неправильным применением метода.

  • Погрешности округления – возникают при округлении чисел до определенного количества знаков после запятой. Эти погрешности могут быть вызваны недостаточной точностью вычислительных устройств или программного обеспечения.

  • Погрешности данных – появляются при использовании неправильных или неточных данных в задаче. Эти погрешности могут быть вызваны ошибками в измерениях, неточностью данных или неправильным выбором данных для решения задачи.

Они могут быть устранены путем тщательного анализа вычислительного процесса и корректировки ошибок.

  1. Случайные погрешности в вычислительных методах возникают из-за случайных факторов, таких как шум в экспериментальных данных, ошибки округления или ошибки, связанные с использованием случайных чисел в алгоритмах.

Эти погрешности могут быть уменьшены за счет увеличения точности вычислений, использования более точных алгоритмов и методов, а также проведения дополнительных экспериментов для получения более точных данных.

  1. Грубая ошибка (промах) – ошибка, возникшая в результате неточности эксперимента.

На рисунке 1 продемонстрированы взаимосвязи видов погрешностей.

Рис. 1 – Виды погрешностей и их взаимосвязи

Помимо двух основных типов, погрешности также можно классифицировать по другим признакам:

  1. Арифметические погрешности в вычислительных методах возникают в результате выполнения арифметических операций над приближенными числами. Они могут возникать из-за округления чисел, ошибок в операциях с плавающей запятой или других причин. Для уменьшения этих погрешностей можно использовать более точные форматы чисел, увеличивать точность вычислений и использовать более совершенные алгоритмы.

  2. Погрешности дискретизации связаны с тем, что исходные данные обычно являются непрерывными функциями, а для решения задачи используются дискретные данные. Эти погрешности могут быть уменьшены за счет использования более точных методов дискретизации, увеличения числа точек дискретизации и проведения дополнительных экспериментов для получения более точной информации.

Также погрешности классифицируют по способу выражения:

  1. Абсолютная погрешность измерения – это разница между точным значением и приближенным значением.

  2. Относительная погрешность измерения – это отношение абсолютной погрешности к точному значению. Обычно она выражается в процентах.

  3. Для характеристики точности СИ часто применяют понятие «приведенная погрешность». Приведенная погрешность средства измерения – это отношение абсолютной погрешности к диапазону возможных значений. Она также выражается в процентах и используется для сравнения погрешностей разных измерений.

Управление погрешностями является важной задачей в вычислительной математике. Поэтому важно уметь определять допущенную погрешность при вычислениях. Рассмотрим несколько доступных для применения методов.

Для определения допущенной погрешности при вычислениях часто используется метод анализа чувствительности. Он заключается в проведении серии вычислений с небольшими изменениями входных данных или параметров, и анализе того, как изменения входных данных влияют на результат.

Также, один из способов определить допущенную погрешность – это определить результаты вычислений с использованием различных значений для переменных и параметров, а затем проанализировать разницу между этими результатами. Например, при выполнении математических вычислений сравнивают полученный ответ с теоретическим значением или с результатом использования аналитических методов.

Также можно использовать специализированные инструменты для анализа погрешностей при вычислениях, такие как методы оценки погрешностей в численном анализе или методы неопределенности в экспериментальных исследованиях.

В любом случае, определение допущенной погрешности – это важная часть процесса вычислений, и метод, выбранный для этой цели, зависит от характера задачи и доступных ресурсов.

Для полного раскрытия темы стоит упомянуть предельную погрешность. Она указывает на степень отклонения измеренного значения от истинного. Эта погрешность представляет собой разницу между наибольшим и наименьшим возможными значениями измеряемой величины. Эта погрешность используется в случаях, когда необходимо оценить точность измерений или определить границы, в которых может находиться истинное значение. Эта величина обычно рассчитывается на основе данных, полученных в результате многократных измерений, и позволяет оценить качество измерительной системы или метода.

Для измерения предельной погрешности можно использовать следующие методы:

  1. Метод стандартных отклонений: этот метод основан на использовании нормального распределения данных. Он предполагает, что истинное значение измеряемой величины находится в пределах одного стандартного отклонения от среднего значения.

  2. Метод границ: этот метод используется, когда известно максимальное и минимальное значения измеряемой величины. Предельная погрешность в этом случае равна разнице между максимальным и минимальным значениями.

  3. Метод среднего квадратического отклонения: этот метод также основан на нормальном распределении данных и предполагает, что предельная погрешность равна двум стандартным отклонениям от среднего значения.

  4. Метод процентной погрешности: этот метод позволяет оценить погрешность в процентах от измеренного значения. Он используется, когда важно знать относительную погрешность, а не абсолютную.

  5. Метод анализа повторяемости: этот метод предполагает проведение нескольких измерений и анализ их повторяемости. Если результаты измерений имеют высокую повторяемость, то можно считать, что погрешность измерений низкая.

В дополнении к вышеперечисленному необходимо уметь находить и оценивать погрешности арифметических операций и при вычислении функций от приближенных значений.

Итак, рассмотрим погрешность вычисления значений функции. Пусть непрерывно дифференцируемая функция, – приближенные значения ее аргументов, для которых – известные абсолютные погрешности.

Для погрешности приближенного значения функции по формуле Лагранжа получаем ,

где

Заменяя получаем

Оценка погрешности соответственно:

где

Относительная погрешность

Допустим, что – неизвестное точное значение некоторой величины, а x – известное приближение к нему. Тогда представим таблицу с формулами для оценки абсолютной и относительной погрешностей для операций: суммы, вычитания, произведения и частного.

Таблица 1

Абсолютная и относительная погрешности для элементарных алгебраических операций

   

(абс.погрешность)

(отн.погрешность)

+

     

     

*

     

:

     

Рассмотрим некоторые примеры определения погрешности.

Пример 1. Задача: Определить абсолютную погрешность числа 1.41, взятого в качестве приближенного значения числа √2. Известно, что 1.41 меньше √2, но больше 1.42. Значит |√2 -1.41| меньше 0.01.

Можно принять ∆а =0.01. Если учесть, что 1.41 меньше √2, но больше 1.41421, то получим лучшую оценку ∆а=0.00421.

Округлим это число в большую сторону, получим ∆а =0.005.

Пример 2. Задача: Определить относительную погрешность числа √2 с приближенным значением 1.41. Будем полагать при этом, что ∆(а)=0.005.

Вычислим

Помимо рассмотренных задач определения погрешности, существует обратная задача теории погрешности. Ее суть заключается в следующем вопросе: каковы должны быть абсолютные погрешности аргументов функции, чтобы абсолютная погрешность функции не превышала заданной величины.

Для примитивного решения поставленной задачи применяется принцип равных влияний. Принцип равных влияний (или равных весов) в теории погрешности заключается в том, что все возможные значения погрешности рассматриваются как равновероятные и, следовательно, вносят равный вклад в общую погрешность. Если некоторая величина X зависит от нескольких других величин A, B, C и т.д., то каждая из этих величин должна вносить равный вклад в погрешность результата.

Другими словами, если мы имеем формулу X = f(A, B, C), то при оценке погрешности результата мы должны считать, что каждая из величин A, B, C и т.д. вносит вклад в погрешность пропорциональный ее значению. Таким образом, если A, B и C имеют одинаковые погрешности, то они будут вносить равные вклады в погрешность результата.

Принцип равных влияний является очень важным при работе с экспериментальными данными и при расчетах в науке и технике. Он позволяет более точно оценивать погрешности результатов и учитывать все факторы, которые могут повлиять на точность измерений.

В статье рассмотрены различные классификации видов погрешностей, возникающих при выполнении вычислений в вычислительной математике. Каждый вид погрешности имеет свои особенности и может приводить к разным результатам при выполнении вычислений. Поэтому важно учитывать все возможные погрешности при проведении вычислений и использовать методы, которые позволяют минимизировать их влияние на результат.

Кроме того, были рассмотрены методы определения допущенной погрешности при вычислениях, а также оценка погрешности арифметических операций. В дополнение ко всему прочему освящена обратная задача теории погрешности и один из принципов ее решения.

Список литературы

  1. Пирумов У.Г. Численные методы Учебное пособие - М Изд-во МАИ, 1998- 188 с.

  2. Кулакова, С.В. Численные методы: учеб. пособие / С.В. Кулакова; Иван. гос. хим.-технол. ун-т. Иваново, 2018 – 124 с.

  3. Тынкевич, М. А.Введение в численный анализ: учеб. пособие / М. А. Тынкевич,А. Г. Пимонов ; КузГТУ. – Кемерово, 2017 – 176 с.

  4. Агапова, Е. Г. 233 Вычислительная математика: учеб. пособие / Е. Г. Агапова; [науч. ред. Т. М. Попова]. - Хабаровск: Изд-во Тихоокеан. гос. ун-та, 2017. - 92 с.

Просмотров работы: 121