گشتاور در آمار ریاضی

گشتاور در آمار ریاضی — از ساده تا پیشرفته

مقدمه‌ای ساده: گشتاور یعنی چی؟

فرض کن یک چوب خط داری و می‌خواهی بفهمی «وزن» داده‌هایت چطور در اطراف یک نقطه پخش شده‌اند. گشتاور دقیقاً چنین مفهومی را در آمار دارد.

در فیزیک، گشتاور یعنی نیرو ضرب در فاصله. در آمار، ایده مشابه است: مقدار یک داده را ضربدر فاصله‌اش از یک نقطه مرجع می‌کنیم، و بعد هم میانگین می‌گیریم. نتیجه، اطلاعات جالبی در مورد شکل و پراکندگی داده‌ها به ما می‌دهد.

📌 به زبان روزمره:

گشتاورها معیارهایی هستند که ویژگی‌های توزیع یک متغیر تصادفی — مثل میانگین، پراکندگی، کشیدگی و چولگی — را توصیف می‌کنند.


چرا گشتاورها مهم هستند؟

  • توصیف کامل شکل توزیع: با دانستن همه گشتاورها (به ترتیب)، می‌توانیم شکل کامل توزیع را بازسازی کنیم.
  • معیارهای شناخته‌شده: میانگین، واریانس، چولگی و کشیدگی، همه از خانواده گشتاورها هستند.
  • کاربردهای عملی در علم داده، اقتصاد، مهندسی و یادگیری ماشین.

گشتاور مرتبه اول: میانگین

اولین گشتاور حول مبدأ به سادگی میانگین داده‌هاست.

برای یک متغیر تصادفی گسسته

X

با تابع توزیع احتمال

p(x) m1=E[X]=xxp(x) m_1′ = E[X] = \sum_{x} x \cdot p(x)

برای یک متغیر پیوسته با تابع چگالی احتمال

f(x) f(x)

m1=E[X]=xf(x)dx m_1′ = E[X] = \int_{-\infty}^{\infty} x \cdot f(x) \, dx

💡 کلید فهم: میانگین می‌گوید داده‌ها «مرکزشان» کجاست.


گشتاور حول مبدأ و حول میانگین

  • گشتاور حول مبدأ (Raw Moment): فاصله از صفر را اندازه می‌گیرد.
  • گشتاور حول میانگین (Central Moment): فاصله از میانگین را اندازه می‌گیرد.

به صورت کلی:

– گشتاور حول مبدأ مرتبه

r r

:

mr=E[Xr] m_r’ = E[X^r]

– گشتاور حول میانگین (گشتاور مرکزی) مرتبه

r r

:

μr=E[(Xμ)r] \mu_r = E[(X – \mu)^r]

که

μ=E[X]\mu = E[X]

میانگین است.


گشتاور مرتبه دوم: واریانس

گشتاور مرکزی مرتبه دوم همان واریانس است که نشان‌دهنده پراکندگی داده‌هاست:

μ2=E[(Xμ)2]=σ2 \mu_2 = E[(X – \mu)^2] = \sigma^2

 


ext{Kurtosis} = \frac{\mu_4}{\sigma^4}

گشتاورهای بالاتر: چولگی و کشیدگی

  • گشتاور مرکزی مرتبه سوم (
    μ3\mu_3
     

    ): چولگی (Skewness) را نشان می‌دهد:

extSkewness=μ3σ3 ext{Skewness} = \frac{\mu_3}{\sigma^3}

  • گشتاور مرکزی مرتبه چهارم (
    μ4\mu_4
     

): کشیدگی (Kurtosis) را می‌دهد:

extKurtosis=μ4σ4 ext{Kurtosis} = \frac{\mu_4}{\sigma^4}

📌 تفسیر:

  • چولگی مثبت → داده‌ها به سمت راست کشیده‌اند.
  • کشیدگی بالا → داده‌ها بیشتر در مرکز و دم‌ها متمرکز شده‌اند.

مثال ساده: پرتاب یک تاس سالم

تابع توزیع احتمال:

p(x)=16,x=1,2,3,4,5,6 p(x) = \frac{1}{6}, \quad x = 1,2,3,4,5,6

گشتاور حول مبدأ مرتبه اول:

m1=E[X]=1+2+3+4+5+66=3.5 m_1′ = E[X] = \frac{1 + 2 + 3 + 4 + 5 + 6}{6} = 3.5

گشتاور حول مبدأ مرتبه دوم:

m2=E[X2]=12+22+32+42+52+626=91615.17 m_2′ = E[X^2] = \frac{1^2 + 2^2 + 3^2 + 4^2 + 5^2 + 6^2}{6} = \frac{91}{6} \approx 15.17

واریانس:

σ2=m2(m1)2=15.17(3.5)2=2.92 \sigma^2 = m_2′ – (m_1′)^2 = 15.17 – (3.5)^2 = 2.92

 


رابطه بین گشتاور حول مبدأ و حول میانگین

مثال کلی برای گشتاور مرکزی مرتبه دوم:

μ2=m2(m1)2 \mu_2 = m_2′ – (m_1′)^2

برای مرتبه‌های بالاتر، روابط پیچیده‌تر ولی قابل محاسبه‌اند.


گشتاورهای تولیدی و توابع آن‌ها

یکی از روش‌های پیشرفته برای مطالعه گشتاورها، استفاده از تابع مولد گشتاور (Moment Generating Function – MGF) است:

MX(t)=E[etX] M_X(t) = E[e^{tX}]

 

گشتاور مرتبه

r r

 با مشتق

r r

-ام از

MX(t) M_X(t)

 در

t=0 t=0

ه دست می‌آید:

mr=MX(r)(0) m_r’ = M_X^{(r)}(0)

 


کاربرد گشتاورها در آمار

  1. برآورد پارامترها: در روش‌هایی مثل Method of Moments.
  2. توصیف توزیع‌ها برای تحلیل داده‌ها.
  3. شناسایی شکل توزیع‌ها و تمایز بین آن‌ها.
  4. کاربرد در یادگیری ماشین: پیش‌پردازش داده‌ها و مهندسی ویژگی.

جمع‌بندی

گشتاورها مثل یک «عکس دسته‌جمعی» از آمار داده‌ها هستند؛ هر گشتاور، زاویه‌ای متفاوت از تصویر را ثبت می‌کند.

از میانگین (گشتاور اول) گرفته تا کشیدگی (گشتاور چهارم) و حتی بالاتر، همه کمک می‌کنند توزیع را به شکل دقیق‌تری بشناسیم.

💡 اگر فقط میانگین و واریانس را بدانیم، انگار فقط دو پیکسل از تصویر توزیع را دیده‌ایم.

اما با گشتاورهای بالاتر، رزولوشن تصویر بالا می‌رود!

اشتراک گذاری در facebook
اشتراک گذاری در twitter
اشتراک گذاری در linkedin
اشتراک گذاری در telegram
اشتراک گذاری در whatsapp
نوشته های مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *