19.2. Риск брака и допуски для статистической взаимозаменяемости

Для обеспечения статистической взаимозаменяемости необходимо соблюдать нижеследующий вероятностный принцип.

Допуски на определяющие параметры должны быть выбраны так, чтобы вероятность $\alpha$ того, что отклонения выходного параметра превосходят допускаемые значения, была не более заданного значения.

Таким образом, статистическая взаимозаменяемость обеспечивает получение годного изделия с вероятностью, отличающейся от единицы на некоторую величину $\alpha$, которую называют риском. Риск получения негодного изделия (с выходным параметром, лежащим вне поля допуска) обычно выбирают достаточно малым из ряда предпочтительных значений статистических величин (0,1; 0,05; 0,02; 0,01; 0,005; 0,0027).

Формализованная запись вероятностного принципа задает вероятность $\alpha$ выхода контролируемого параметра $Y$ за пределы допуска в виде нестрогого неравенства. Если допуск двухсторонний, т. е. ограничен известными верхним $ES$ и нижним $EI$ отклонениями, то действительное отклонение выходного параметра $\Delta Y$ должно удовлетворять условию

$\displaystyle \Pr\left\{\Delta Y\ge EI \cap \Delta Y \le ES\right\}\ge1-\alpha,$ (19.8)

где $\Pr\{A\}$ означает вероятность события $A$.

Для того чтобы проверить соблюдение неравенств из условия (19.8), можно воспользоваться функцией распределения отклонений $\Delta Y$. Если эта функция известна, то при заданном допуске  $\Delta_T Y=ES-EI$ или при известных значениях верхнего $ES$ и нижнего $EI$ предельных отклонений можно проверить значение риска $\alpha$.

Как уже установлено выше в главах 14 и 15, риск получения брака может описываться индексами качества $C_p$ и $C_{pk}$. Это означает, что заданное значение индекса качества (например, индекса воспроизводимости $C_p$) при известных требованиях к границам допуска определяет в значительной мере параметры функции распределения случайных отклонений выходного параметра.

Использование принципа статистической взаимозаменяемости возможно и оправдано потому, что действительные отклонения влияющих параметров  $\Delta X_i$ являются случайными величинами. При этом вероятность одновременной реализации наихудшей комбинации отклонений внутренних и внешних составляющих параметров очень мала. В этом предположении уравнение размерной цепи и уравнение чувствительности необходимо рассматривать как уравнения, связывающие случайные величины.

Учитывая, что уравнения чувствительности в большинстве задач имеют вид линейных зависимостей, необходимо рассмотреть линейные преобразования случайных величин. В подавляющем большинстве практических задач можно ограничиться отысканием числовых характеристик случайных величин при линейных преобразованиях. Важнейшими среди этих характеристик и, обыкновенно, достаточными являются математическое ожидание и дисперсия.

Для дальнейших рассуждений напомним свойства линейных преобразований случайных величин. Как известно из теории вероятностей, математическое ожидание случайной величины обладает свойством линейности. Это означает, что математическое ожидание суммы случайных величин равно сумме математических ожиданий этих величин, и что постоянный множитель можно выносить за знак математического ожидания. Иными словами, если есть набор случайных величин  $X_1,\ldots,X_i,\ldots,X_n$ и они имеют соответствующие математические ожидания  $M(X_1),\ldots,M(X_i),\ldots,M(X_n)$, то справедливо равенство

$\displaystyle M\left(\sum_{i=1}^nC_i\cdot X_i\right)=\sum_{i=1}^nC_i\cdot M(X_i).$ (19.9)

Дисперсия $D(X)$ любой случайной величины $X$ определяется как математическое ожидание квадрата отклонений случайной величины от ее математического ожидания:

$\displaystyle D(X)=M\left[\left(X-M(X)\right)^2\right].$ (19.10)

Очевидно, можно (19.10) переписать в виде

$\displaystyle D(X)=M\left(X^2-2\cdot X\cdot M(X)+M^2(X)\right).$    

Применяя (19.9) к правой части этого равенства и учитывая то, что математическое ожидание случайной величины есть константа, получим

$\displaystyle D(X)=M(X^2)-2\cdot M(X)\cdot M(X)+M^2(X).$    

После очевидного преобразования окончательно запишем

$\displaystyle D(X)=M(X^2)-M^2(X).$ (19.11)

Установим еще одно свойство дисперсии. Если случайная величина  $Z=C\cdot X$, где $C$ — константа, то из (19.11) следует

$\displaystyle D(Z)=M(C^2\cdot X^2)-M^2(C\cdot X),$    

что после применения свойства линейности математического ожидания (19.9) приводит к равенству

$\displaystyle D(Z)=C^2\cdot\left(M(X^2)-M^2(X)\right)=C^2\cdot D(X).$ (19.12)

Для независимых случайных величин  $X_1\ldots X_i \ldots X_n$ имеет место свойство аддитивности дисперсий, или как его называют равенство Бьенэме [56]:

$\displaystyle D(X_1+\ldots+X_i+\ldots+Xn)=D(X_1)+\ldots+D(X_i)+\ldots+D(Xn).$ (19.13)

Напомним еще, что стандартное отклонение случайной величины есть квадратный корень из дисперсии (по определению):

$\displaystyle \sigma(X)=\sqrt{D(X)}.$ (19.14)