UGMJC-3PSYCHOLOGYSEM-3

UG-PSYCHOLOGY, SEMESTER-3, MJC-3, UNIT-3

सहसंबंध (Correlation): अवधारणा और प्रकार

परिचय

सहसंबंध (Correlation) सांख्यिकी (Statistics) का एक महत्वपूर्ण विषय है, जो दो या अधिक चरों (Variables) के बीच के संबंध को मापता है। यह यह बताने में मदद करता है कि यदि एक चर बढ़ता या घटता है, तो दूसरा चर किस प्रकार प्रभावित होता है।

सहसंबंध का उपयोग मनोविज्ञान, अर्थशास्त्र, व्यवसाय, चिकित्सा और शिक्षा सहित कई क्षेत्रों में किया जाता है। उदाहरण के लिए, मनोविज्ञान में यह पता लगाया जा सकता है कि अध्ययन के घंटों और परीक्षा के अंकों के बीच कोई संबंध है या नहीं।

इस लेख में, हम निम्नलिखित विषयों को विस्तार से समझेंगे:

  1. सहसंबंध की अवधारणा
  2. सहसंबंध के प्रकार
  3. वास्तविक जीवन में सहसंबंध के उदाहरण

1. सहसंबंध की अवधारणा

परिभाषा

सहसंबंध वह सांख्यिकीय माप है जो यह दर्शाता है कि दो चर एक दूसरे से कितने जुड़े हुए हैं। यह यह निर्धारित करता है कि यदि एक चर बढ़ता या घटता है, तो दूसरा चर किस हद तक उसी दिशा में बढ़ेगा या घटेगा।

सहसंबंध की विशेषताएँ

  • दिशा (Direction) – सहसंबंध सकारात्मक (Positive), नकारात्मक (Negative), या शून्य (Zero) हो सकता है।
  • शक्ति (Strength) – सहसंबंध का परिमाण सहसंबंध गुणांक (Correlation Coefficient) द्वारा मापा जाता है।
  • संतुलन (Symmetry) – XX और YY के बीच सहसंबंध समान होता है, चाहे उसे XX से YY की ओर या YY से XX की ओर मापा जाए।

गणितीय अभिव्यक्ति

सहसंबंध को पियर्सन सहसंबंध गुणांक (Pearson Correlation Coefficient, r) द्वारा मापा जाता है, जिसका सूत्र निम्नलिखित है:

r=n∑XY−(∑X)(∑Y)[n∑X2−(∑X)2][n∑Y2−(∑Y)2]r = \frac{n \sum XY – (\sum X)(\sum Y)}{\sqrt{[n \sum X^2 – (\sum X)^2][n \sum Y^2 – (\sum Y)^2]}}

जहाँ:

  • rr = सहसंबंध गुणांक
  • X,YX, Y = दो चर
  • nn = कुल डेटा बिंदु की संख्या

सहसंबंध का मान -1 और +1 के बीच होता है:

  • r=+1r = +1 → पूर्णत: सकारात्मक सहसंबंध
  • r=−1r = -1 → पूर्णत: नकारात्मक सहसंबंध
  • r=0r = 0 → कोई सहसंबंध नहीं

2. सहसंबंध के प्रकार

सहसंबंध को दिशा, चरों की संख्या, और मापने की विधि के आधार पर वर्गीकृत किया जा सकता है।

A. संबंध की दिशा के आधार पर सहसंबंध

1. सकारात्मक सहसंबंध (Positive Correlation)

  • जब एक चर बढ़ता है, तो दूसरा भी बढ़ता है और जब एक घटता है, तो दूसरा भी घटता है
  • उदाहरण: लंबाई और वजन – अधिक लंबाई वाले लोग आमतौर पर अधिक वजन वाले होते हैं।
  • ग्राफ़ पर यह ऊपर की ओर ढलान के रूप में दिखता है।

2. नकारात्मक सहसंबंध (Negative Correlation)

  • जब एक चर बढ़ता है, तो दूसरा घटता है और जब एक घटता है, तो दूसरा बढ़ता है
  • उदाहरण: तनाव और नींद का समय – अधिक तनाव से कम नींद आती है।
  • ग्राफ़ पर यह नीचे की ओर ढलान के रूप में दिखता है।

3. शून्य सहसंबंध (Zero Correlation)

  • जब दोनों चरों के बीच कोई संबंध नहीं होता
  • उदाहरण: जूते का आकार और बुद्धिमत्ता – इन दोनों के बीच कोई संबंध नहीं है।
  • ग्राफ़ पर डेटा बिंदु बिना किसी पैटर्न के बिखरे हुए दिखते हैं।

B. चरों की संख्या के आधार पर सहसंबंध

1. सरल सहसंबंध (Simple Correlation)

  • जब केवल दो चर शामिल होते हैं।
  • उदाहरण: तापमान और आइसक्रीम की बिक्री

2. बहु-सहसंबंध (Multiple Correlation)

  • जब तीन या अधिक चर शामिल होते हैं।
  • उदाहरण: वेतन, कार्य-अनुभव, और शिक्षा स्तर के बीच संबंध

3. आंशिक सहसंबंध (Partial Correlation)

  • जब तीसरे चर के प्रभाव को नियंत्रित करने के बाद दो चरों के बीच सहसंबंध की गणना की जाती है
  • उदाहरण: व्यायाम और वजन घटाने का संबंध, लेकिन आहार के प्रभाव को हटाकर

C. मापन विधि के आधार पर सहसंबंध

1. पियर्सन सहसंबंध (Pearson’s Correlation Coefficient, r)

  • जब दोनों चर सतत (Continuous) और रैखिक (Linear) होते हैं

2. स्पीयरमैन रैंक सहसंबंध (Spearman’s Rank Correlation, rₛ)

  • जब डेटा क्रमबद्ध (Ranked) हो
  • उदाहरण: छात्रों के परीक्षा अंक और खेल प्रदर्शन रैंक
  • सूत्र:

rs=1−6∑d2n(n2−1)r_s = 1 – \frac{6 \sum d^2}{n(n^2 – 1)}

3. केंडल का टाउ (Kendall’s Tau Correlation)

  • छोटे डेटा सेट्स के लिए अधिक सटीक विधि।
  • जब डेटा क्रमबद्ध (Ordinal) हो

4. पॉइंट-बिसेरियल सहसंबंध (Point-Biserial Correlation)

  • जब एक चर सतत और दूसरा द्विचर (Binary: Yes/No, 0/1) हो।
  • उदाहरण: लिंग (पुरुष/महिला) और परीक्षा अंकों का संबंध

5. फाई गुणांक (Phi Coefficient, φ)

  • जब दोनों चर द्विचर (Binary) हों।
  • उदाहरण: धूम्रपान (हाँ/नहीं) और फेफड़ों के कैंसर (हाँ/नहीं) का संबंध

3. वास्तविक जीवन में सहसंबंध के उदाहरण

1. मनोविज्ञान में

  • आईक्यू और शैक्षणिक प्रदर्शन → सकारात्मक सहसंबंध।
  • तनाव और मानसिक स्वास्थ्य → नकारात्मक सहसंबंध।

2. व्यवसाय और अर्थशास्त्र में

  • विज्ञापन और बिक्री → सकारात्मक सहसंबंध।
  • मुद्रास्फीति और क्रय शक्ति → नकारात्मक सहसंबंध।

3. चिकित्सा और स्वास्थ्य में

  • धूम्रपान और फेफड़ों के कैंसर का खतरा → सकारात्मक सहसंबंध।
  • व्यायाम और कोलेस्ट्रॉल स्तर → नकारात्मक सहसंबंध।

4. शिक्षा में

  • अध्ययन का समय और परीक्षा अंक → सकारात्मक सहसंबंध।
  • अनुपस्थिति और अकादमिक प्रदर्शन → नकारात्मक सहसंबंध।

4. सहसंबंध की सीमाएँ

  1. सहसंबंध कारणता (Causation) को सिद्ध नहीं करता
  2. गैर-रैखिक संबंधों को पहचान नहीं सकता
  3. अत्यधिक मूल्यों (Outliers) से प्रभावित होता है
  4. गुप्त चरों का प्रभाव अनदेखा करता है

निष्कर्ष

सहसंबंध सांख्यिकी में एक महत्वपूर्ण टूल है, जो डेटा में पैटर्न और रुझान की पहचान करने में मदद करता है। विभिन्न प्रकार के सहसंबंध अलग-अलग परिस्थितियों में उपयोग किए जाते हैं। हालाँकि, यह समझना महत्वपूर्ण है कि सहसंबंध केवल दो चरों के बीच संबंध को दर्शाता है, यह यह साबित नहीं करता कि एक चर दूसरे का कारण है।

UNIT-3(3.1) Correlation: Concept, Types of correlation.

Introduction

Correlation is a fundamental concept in statistics that measures the relationship between two or more variables. It helps in understanding whether an increase or decrease in one variable is associated with an increase or decrease in another variable. Correlation is widely used in various fields such as psychology, economics, business, and medical research to identify patterns and relationships between data points.

For example, in psychology, correlation can help determine whether there is a relationship between study hours and exam scores or between stress levels and sleep duration. In business, it can show whether an increase in advertising expenditure leads to higher sales.

This essay will cover:

  1. The concept of correlation
  2. The types of correlation
  3. Examples of correlation in real-life scenarios

1. Concept of Correlation

Definition

Correlation refers to the statistical relationship between two variables, indicating how one variable changes in response to another. It does not establish causation (cause-and-effect relationship), but it helps identify patterns and trends in data.

Properties of Correlation

  • Direction: Correlation can be positive, negative, or zero (no correlation).
  • Strength: The correlation coefficient determines the strength of the relationship between variables.
  • Symmetry: Correlation between variable X and variable Y is the same as between Y and X.

Mathematical Representation

Correlation is usually measured using the Pearson Correlation Coefficient (r), which is calculated as:

r=n∑XY−(∑X)(∑Y)[n∑X2−(∑X)2][n∑Y2−(∑Y)2]r = \frac{n \sum XY – (\sum X)(\sum Y)}{\sqrt{[n \sum X^2 – (\sum X)^2][n \sum Y^2 – (\sum Y)^2]}}

where:

  • rr = correlation coefficient
  • X,YX, Y = variables
  • nn = number of data points

The value of rr always lies between -1 and +1.


2. Types of Correlation

Correlation can be classified based on direction, number of variables, and method of measurement.

A. Based on Direction of Relationship

1. Positive Correlation

  • If one variable increases, the other also increases, and vice versa.
  • Example: Height and weight – Taller people tend to weigh more.
  • Graphically, this is represented by an upward-sloping trend.

2. Negative Correlation

  • If one variable increases, the other decreases, and vice versa.
  • Example: Stress and sleep duration – More stress often leads to less sleep.
  • Represented by a downward-sloping trend.

3. Zero (No) Correlation

  • There is no relationship between the two variables.
  • Example: Shoe size and intelligence – No connection exists between them.
  • Graphically, the points appear scattered without a clear pattern.

B. Based on Number of Variables

1. Simple Correlation

  • Involves only two variables.
  • Example: The relationship between temperature and ice cream sales.

2. Multiple Correlation

  • Involves three or more variables.
  • Example: The correlation between salary, work experience, and education level.

3. Partial Correlation

  • Examines the relationship between two variables while controlling the effect of a third variable.
  • Example: The correlation between exercise and weight loss, while controlling for diet.

C. Based on Method of Measurement

1. Pearson’s Correlation Coefficient (r)

  • Measures linear relationship between two continuous variables.
  • Values range from -1 to +1:
    • r = +1 → Perfect positive correlation
    • r = -1 → Perfect negative correlation
    • r = 0 → No correlation

2. Spearman’s Rank Correlation

  • Used when data is ordinal (ranked data) instead of continuous.
  • Example: Ranking students based on marks and ranking their performance in sports.
  • Formula:

rs=1−6∑d2n(n2−1)r_s = 1 – \frac{6 \sum d^2}{n(n^2 – 1)}

where dd is the difference between ranks, and nn is the number of observations.

3. Kendall’s Tau Correlation

  • Similar to Spearman’s Rank Correlation, but more accurate for small datasets.
  • Used in cases where data is ordinal or non-parametric.

4. Point-Biserial Correlation

  • Measures the relationship between one continuous variable and one binary variable (0/1, Yes/No).
  • Example: Relationship between gender (Male/Female) and test scores.

5. Phi Coefficient (φ)

  • Used when both variables are binary (dichotomous).
  • Example: Relationship between smoking (Yes/No) and lung disease (Yes/No).

3. Real-Life Applications of Correlation

1. Psychology

  • IQ and academic performance → Positive correlation.
  • Stress and mental health → Negative correlation.

2. Business and Economics

  • Advertising expenditure and sales → Positive correlation.
  • Inflation and purchasing power → Negative correlation.

3. Healthcare and Medicine

  • Smoking and lung cancer risk → Positive correlation.
  • Exercise and cholesterol levels → Negative correlation.

4. Education

  • Study time and grades → Positive correlation.
  • Absenteeism and academic performance → Negative correlation.

4. Limitations of Correlation

  1. Correlation does not imply causation
  1. A high correlation does not mean that one variable causes the other to change.
  2. Example: Ice cream sales and drowning deaths are correlated, but the real cause is hot weather.
  3. Non-linear relationships are not detected
  4. Pearson’s correlation works only for linear relationships.
  5. Outliers affect correlation
  6. Extreme values can distort the correlation coefficient.
  7. Correlation does not account for hidden variables
  8. There may be a third factor influencing both variables.

Conclusion

Correlation is a crucial statistical tool used to measure relationships between variables. It helps in data analysis across multiple domains, including psychology, business, healthcare, and education. Understanding the types of correlation – positive, negative, and zero – along with various methods like Pearson’s and Spearman’s correlation allows researchers to draw meaningful insights from data.

However, it is important to remember that correlation does not imply causation. A strong correlation between two variables does not mean that one variable directly influences the other. Therefore, correlation should be used carefully, considering other statistical methods to determine causal relationships.

By applying correlation analysis effectively, we can improve decision-making in various fields, from predicting market trends to understanding human behavior.

UNIT-3(3.2) Calculation of Correlation: Product moment and Rank difference method.

सहसंबंध की गणना: उत्पाद-मोमेंट विधि और रैंक-अंतर विधि

परिचय

सहसंबंध (Correlation) सांख्यिकी की एक महत्वपूर्ण विधि है, जो यह मापती है कि दो चर (Variables) के बीच कितना और किस प्रकार का संबंध है। यह हमें यह समझने में मदद करता है कि यदि एक चर बदलता है, तो दूसरा चर उस पर क्या प्रभाव डालता है।

सहसंबंध की गणना के कई तरीके हैं, लेकिन सबसे प्रमुख दो तरीके हैं:

  1. उत्पाद-मोमेंट विधि (Product Moment Method) जिसे पियर्सन सहसंबंध गुणांक (Pearson’s Correlation Coefficient) भी कहा जाता है।
  2. रैंक-अंतर विधि (Rank Difference Method) जिसे स्पीयरमैन रैंक सहसंबंध (Spearman’s Rank Correlation Coefficient) भी कहा जाता है।

इस लेख में हम निम्नलिखित विषयों पर विस्तार से चर्चा करेंगे:

  1. सहसंबंध की अवधारणा और महत्व
  2. उत्पाद-मोमेंट विधि (Pearson’s Correlation Coefficient)
  3. रैंक-अंतर विधि (Spearman’s Rank Correlation Coefficient)
  4. वास्तविक जीवन में सहसंबंध के अनुप्रयोग
  5. सहसंबंध की सीमाएँ

1. सहसंबंध की अवधारणा और महत्व

सहसंबंध की परिभाषा

सहसंबंध दो चरों के बीच संबंध को मापने का एक सांख्यिकीय उपाय है। इसका मान -1 से +1 के बीच होता है:

  • +1 → पूर्णत: सकारात्मक सहसंबंध (यदि एक चर बढ़ता है, तो दूसरा भी बढ़ता है)।
  • -1 → पूर्णत: नकारात्मक सहसंबंध (यदि एक चर बढ़ता है, तो दूसरा घटता है)।
  • 0कोई सहसंबंध नहीं (दोनों चरों के बीच कोई संबंध नहीं)।

सहसंबंध का महत्व

  • यह एक चर के आधार पर दूसरे चर की भविष्यवाणी करने में सहायक होता है।
  • यह मनोविज्ञान, व्यवसाय, अर्थशास्त्र और चिकित्सा अनुसंधान में व्यापक रूप से उपयोग किया जाता है।
  • यह डेटा के पैटर्न को समझने और बेहतर निर्णय लेने में मदद करता है।

2. उत्पाद-मोमेंट विधि (Pearson’s Correlation Coefficient, r)

अवधारणा

यह विधि दो सतत (Continuous) चरों के बीच रैखिक संबंध (Linear Relationship) को मापने के लिए प्रयोग की जाती है। यह विधि उन डेटा के लिए सबसे उपयुक्त होती है जो सामान्य वितरण (Normally Distributed) में होते हैं।

समीकरण

पियर्सन सहसंबंध गुणांक (rr) की गणना निम्नलिखित सूत्र से की जाती है:

r=n∑XY−(∑X)(∑Y)[n∑X2−(∑X)2][n∑Y2−(∑Y)2]r = \frac{n \sum XY – (\sum X)(\sum Y)}{\sqrt{[n \sum X^2 – (\sum X)^2][n \sum Y^2 – (\sum Y)^2]}}

जहाँ:

  • XX और YY दो चर हैं।
  • nn डेटा बिंदुओं की कुल संख्या है।
  • ∑XY\sum XY दोनों चरों के उत्पाद का योग है।
  • ∑X\sum X और ∑Y\sum Y चरों के व्यक्तिगत मानों का योग है।
  • ∑X2\sum X^2 और ∑Y2\sum Y^2 चरों के वर्गों का योग है।

चरण-दर-चरण गणना (उदाहरण)

मान लीजिए कि हमें अध्ययन के घंटे (X) और परीक्षा के अंक (Y) के बीच संबंध खोजना है।

छात्रअध्ययन घंटे (X)परीक्षा अंक (Y)X2X^2Y2Y^2XYXY
12404160080
235092500150
3565254225325
4670364900420
5890648100720

अब गणना करें:

  • ∑X=24\sum X = 24, ∑Y=315\sum Y = 315
  • ∑X2=138\sum X^2 = 138, ∑Y2=21325\sum Y^2 = 21325
  • ∑XY=1695\sum XY = 1695

r=(5)(1695)−(24)(315)[5(138)−(24)2][5(21325)−(315)2]r = \frac{(5)(1695) – (24)(315)}{\sqrt{[5(138) – (24)^2][5(21325) – (315)^2]}} r=0.997r = 0.997

चूँकि r≈1r \approx 1, यह बहुत मजबूत सकारात्मक सहसंबंध को दर्शाता है।


3. रैंक-अंतर विधि (Spearman’s Rank Correlation Coefficient, rₛ)

अवधारणा

जब डेटा क्रमबद्ध (Ranked) होता है, तो हम स्पीयरमैन रैंक सहसंबंध का उपयोग करते हैं। यह गैर-रैखिक (Non-Linear) संबंधों के लिए उपयुक्त होता है।

समीकरण

rs=1−6∑d2n(n2−1)r_s = 1 – \frac{6 \sum d^2}{n(n^2 – 1)}

जहाँ:

  • dd = दो चरों की रैंक के बीच का अंतर
  • nn = कुल डेटा बिंदु की संख्या

चरण-दर-चरण गणना (उदाहरण)

छात्रअध्ययन घंटे (X)रैंक (X)परीक्षा अंक (Y)रैंक (Y)d=X−Yd = X – Yd2d^2
12140100
23250200
35365300
46470400
58590500

rs=1−6(0)5(52−1)r_s = 1 – \frac{6(0)}{5(5^2 – 1)} rs=1r_s = 1

चूँकि rs=1r_s = 1, यह पूर्ण सकारात्मक सहसंबंध को दर्शाता है।


4. वास्तविक जीवन में सहसंबंध के अनुप्रयोग

  1. शिक्षा – अध्ययन के घंटे और परीक्षा के अंकों के बीच संबंध।
  2. मनोविज्ञान – तनाव स्तर और मानसिक स्वास्थ्य के बीच संबंध।
  3. व्यवसाय – विज्ञापन व्यय और बिक्री के बीच संबंध।
  4. चिकित्सा – व्यायाम और कोलेस्ट्रॉल स्तर के बीच संबंध।

5. सहसंबंध की सीमाएँ

  • संबंध का कारण नहीं बताता (Correlation does not imply causation)।
  • विषम मान (Outliers) से प्रभावित हो सकता है
  • केवल रैखिक संबंधों के लिए उपयुक्त

निष्कर्ष

पियर्सन विधि सतत और रैखिक डेटा के लिए उपयुक्त है, जबकि स्पीयरमैन विधि क्रमबद्ध डेटा के लिए अधिक उपयुक्त होती है। दोनों विधियाँ शोधकर्ताओं और विश्लेषकों को डेटा के बीच संबंधों की समझ बनाने में मदद करती हैं।

UNIT-3(3.2) Calculation of Correlation: Product moment and Rank difference method.

Introduction

Correlation is a statistical technique used to measure the strength and direction of a relationship between two variables. It helps researchers and analysts understand how one variable changes in response to another. There are multiple ways to calculate correlation, but the Product Moment Method (Pearson’s Correlation Coefficient) and the Rank Difference Method (Spearman’s Rank Correlation Coefficient) are the most commonly used.

This essay will cover:

  1. Concept of correlation and its significance
  2. Product Moment Method (Pearson’s Correlation Coefficient)
  3. Rank Difference Method (Spearman’s Rank Correlation Coefficient)
  4. Real-life applications of correlation
  5. Limitations of correlation

1. Concept of Correlation and Its Significance

Definition

Correlation is a statistical measure that expresses the extent to which two variables are related to each other. It ranges from -1 to +1, where:

  • +1 indicates a perfect positive correlation (when one variable increases, the other also increases).
  • -1 indicates a perfect negative correlation (when one variable increases, the other decreases).
  • 0 indicates no correlation (no relationship between the variables).

Importance of Correlation in Research

  • Helps in predicting one variable based on another.
  • Used in psychology, business, economics, and medical research.
  • Helps in identifying patterns and making informed decisions.

2. Product Moment Method (Pearson’s Correlation Coefficient, r)

Concept

The Product Moment Method, also known as Pearson’s Correlation Coefficient, measures the linear relationship between two continuous variables. It is suitable for normally distributed data with a linear relationship.

Formula

The Pearson correlation coefficient (rr) is calculated using the formula:

r=n∑XY−(∑X)(∑Y)[n∑X2−(∑X)2][n∑Y2−(∑Y)2]r = \frac{n \sum XY – (\sum X)(\sum Y)}{\sqrt{[n \sum X^2 – (\sum X)^2][n \sum Y^2 – (\sum Y)^2]}}

where:

  • XX and YY are the two variables.
  • nn is the number of data points.
  • ∑XY\sum XY is the sum of the product of paired scores.
  • ∑X\sum X and ∑Y\sum Y are the sum of individual values of X and Y.
  • ∑X2\sum X^2 and ∑Y2\sum Y^2 are the sum of squared values of X and Y.

Step-by-Step Calculation

Example:

Suppose we have the following data on students’ study hours (X) and exam scores (Y).

StudentStudy Hours (X)Exam Score (Y)X2X^2Y2Y^2XYXY
12404160080
235092500150
3565254225325
4670364900420
5890648100720

Now, calculate:

  • ∑X=2+3+5+6+8=24\sum X = 2 + 3 + 5 + 6 + 8 = 24
  • ∑Y=40+50+65+70+90=315\sum Y = 40 + 50 + 65 + 70 + 90 = 315
  • ∑X2=4+9+25+36+64=138\sum X^2 = 4 + 9 + 25 + 36 + 64 = 138
  • ∑Y2=1600+2500+4225+4900+8100=21325\sum Y^2 = 1600 + 2500 + 4225 + 4900 + 8100 = 21325
  • ∑XY=80+150+325+420+720=1695\sum XY = 80 + 150 + 325 + 420 + 720 = 1695

Using the formula:

r=(5)(1695)−(24)(315)[5(138)−(24)2][5(21325)−(315)2]r = \frac{(5)(1695) – (24)(315)}{\sqrt{[5(138) – (24)^2][5(21325) – (315)^2]}} r=8475−7560[690−576][106625−99225]r = \frac{8475 – 7560}{\sqrt{[690 – 576][106625 – 99225]}} r=915114×7400r = \frac{915}{\sqrt{114 \times 7400}} r=915841800r = \frac{915}{\sqrt{841800}} r=915917.6=0.997r = \frac{915}{917.6} = 0.997

Since r≈1r \approx 1, this indicates a very strong positive correlation between study hours and exam scores.


3. Rank Difference Method (Spearman’s Rank Correlation Coefficient, rₛ)

Concept

The Rank Difference Method, also known as Spearman’s Rank Correlation Coefficient, is used when data is ordinal (ranked data) rather than continuous. It measures monotonic relationships (where variables move in the same or opposite direction but not necessarily at a constant rate).

Formula

The Spearman rank correlation coefficient (rsr_s) is calculated using:

rs=1−6∑d2n(n2−1)r_s = 1 – \frac{6 \sum d^2}{n(n^2 – 1)}

where:

  • dd is the difference between the ranks of X and Y.
  • nn is the number of observations.

Step-by-Step Calculation

Example:

Rank the study hours and exam scores from the previous example.

StudentStudy Hours (X)Rank (X)Exam Score (Y)Rank (Y)d=X−Yd = X – Yd2d^2
12140100
23250200
35365300
46470400
58590500

Now,

  • ∑d2=0\sum d^2 = 0
  • n=5n = 5

Using the formula:

rs=1−6(0)5(52−1)r_s = 1 – \frac{6(0)}{5(5^2 – 1)} rs=1−0=1r_s = 1 – 0 = 1

Since rs=1r_s = 1, it indicates a perfect positive correlation between study hours and exam scores.


4. Real-Life Applications of Correlation

  1. Education – Correlation between attendance and academic performance.
  2. Psychology – Relationship between stress levels and mental health.
  3. Business – Impact of advertising expenditure on sales.
  4. Health – Relationship between exercise and cholesterol levels.

5. Limitations of Correlation

  • Does not imply causation – A strong correlation does not mean one variable causes the other.
  • Sensitive to outliers – Extreme values can distort correlation values.
  • Limited to linear relationships – Pearson’s correlation does not work well for non-linear relationships.

Conclusion

The Product Moment Method (Pearson’s Correlation Coefficient) is ideal for continuous and linear data, while the Rank Difference Method (Spearman’s Rank Correlation Coefficient) is better suited for ranked or ordinal data. Both methods provide valuable insights into relationships between variables, helping researchers and analysts make data-driven decisions.

UNIT-3(3.3) Calculation of t-test: Independent group and Correlated group.

t-परिक्षण (t-test) की गणना: स्वतंत्र समूह और सहसंबद्ध समूह

परिचय

t-परिक्षण (t-test) एक सांख्यिकीय परीक्षण है जिसका उपयोग दो समूहों के औसत (Mean) की तुलना करने और यह निर्धारित करने के लिए किया जाता है कि उनके बीच का अंतर महत्वपूर्ण है या केवल संयोग मात्र। यह मनोविज्ञान, शिक्षा, चिकित्सा और व्यवसाय जैसे क्षेत्रों में व्यापक रूप से उपयोग किया जाता है।

t-परिक्षण के दो मुख्य प्रकार होते हैं:

  1. स्वतंत्र नमूना t-परिक्षण (Independent Samples t-test) – जब दो अलग-अलग समूहों की तुलना की जाती है।
  2. युग्मित (सहसंबद्ध) नमूना t-परिक्षण (Paired Samples t-test) – जब एक ही समूह का दो स्थितियों में या दो समय बिंदुओं पर परीक्षण किया जाता है।

इस लेख में, हम निम्नलिखित बिंदुओं पर चर्चा करेंगे:

  • t-परिक्षण की अवधारणा और इसका महत्व
  • स्वतंत्र नमूना t-परिक्षण – सूत्र, गणना और उदाहरण
  • युग्मित (सहसंबद्ध) नमूना t-परिक्षण – सूत्र, गणना और उदाहरण
  • t-परिक्षण के परिणामों की व्याख्या
  • t-परिक्षण की सीमाएँ और धारणाएँ

1. t-परिक्षण की अवधारणा और महत्व

t-परिक्षण क्या है?

t-परिक्षण दो समूहों के बीच अंतर को मापने का एक सांख्यिकीय तरीका है। यह t-वितरण (t-distribution) पर आधारित होता है और विशेष रूप से छोटे नमूनों (n < 30) के लिए उपयोग किया जाता है।

t-परिक्षण का महत्व

  • यह यह निर्धारित करने में मदद करता है कि दो समूहों के बीच का अंतर वास्तविक है या केवल संयोगवश है।
  • अनुसंधान (Research) में नियंत्रण (Control) और प्रयोगात्मक (Experimental) समूह की तुलना के लिए उपयोग किया जाता है।
  • मनोविज्ञान, व्यवसाय, शिक्षा और चिकित्सा में महत्वपूर्ण निर्णय लेने में मदद करता है।

2. स्वतंत्र नमूना t-परिक्षण (Independent Samples t-test)

अवधारणा

यह परीक्षण तब प्रयोग किया जाता है जब हम दो स्वतंत्र समूहों की तुलना करना चाहते हैं। उदाहरण के लिए,

  • पुरुष और महिला छात्रों के परीक्षा अंकों की तुलना।
  • एक नई दवा और एक प्लेसिबो (Placebo) के प्रभाव की तुलना।

सूत्र

स्वतंत्र नमूना t-परिक्षण का सूत्र इस प्रकार है:

t=X1ˉ−X2ˉs12n1+s22n2t = \frac{\bar{X_1} – \bar{X_2}}{\sqrt{\frac{s_1^2}{n_1} + \frac{s_2^2}{n_2}}}

जहाँ:

  • X1ˉ\bar{X_1} और X2ˉ\bar{X_2} = समूह 1 और समूह 2 का औसत
  • s12s_1^2 और s22s_2^2 = समूह 1 और समूह 2 का प्रसरण (Variance)
  • n1n_1 और n2n_2 = समूह 1 और समूह 2 का नमूना आकार

स्वतंत्रता की डिग्री (Degrees of Freedom, df) की गणना:

df=n1+n2−2df = n_1 + n_2 – 2

गणना का उदाहरण

उदाहरण:

एक शोधकर्ता यह जांचना चाहता है कि क्या पारंपरिक और आधुनिक शिक्षण विधियों से छात्रों के अंकों में कोई महत्वपूर्ण अंतर है।

समूहपरीक्षा अंकऔसत (Xˉ\bar{X})प्रसरण (s2s^2)नमूना आकार (n)
पारंपरिक50, 55, 52, 48, 5351.66.35
आधुनिक60, 62, 58, 65, 6361.67.35

अब सूत्र का उपयोग करें:

t=51.6−61.66.35+7.35t = \frac{51.6 – 61.6}{\sqrt{\frac{6.3}{5} + \frac{7.3}{5}}} t=−101.26+1.46t = \frac{-10}{\sqrt{1.26 + 1.46}} t=−102.72t = \frac{-10}{\sqrt{2.72}} t=−101.65=−6.06t = \frac{-10}{1.65} = -6.06

परिणाम की व्याख्या

यदि t-सूची (t-table) में df = 8 और α = 0.05 के लिए नाजुक मान (critical value) = 2.306 है, और चूंकि |t| = 6.06 > 2.306, हम शून्य परिकल्पना (null hypothesis) को अस्वीकार करते हैं। इसका अर्थ है कि आधुनिक शिक्षण विधि पारंपरिक विधि से अधिक प्रभावी है


3. युग्मित (सहसंबद्ध) नमूना t-परिक्षण (Paired Samples t-test)

अवधारणा

जब हम एक ही समूह का दो अलग-अलग समय बिंदुओं पर परीक्षण करते हैं, तो हम युग्मित t-परिक्षण का उपयोग करते हैं। उदाहरण के लिए:

  • छात्रों के प्रशिक्षण से पहले और बाद के अंकों की तुलना।
  • कर्मचारियों के तनाव स्तर के पहले और बाद के मापन की तुलना।

सूत्र

t=DˉsD/nt = \frac{\bar{D}}{s_D / \sqrt{n}}

जहाँ:

  • Dˉ\bar{D} = युग्मित अंतर का औसत
  • sDs_D = अंतर का मानक विचलन
  • nn = युग्मों की संख्या

स्वतंत्रता की डिग्री:

df=n−1df = n – 1

गणना का उदाहरण

उदाहरण:

एक मनोवैज्ञानिक 5 कर्मचारियों के तनाव स्तर को तनाव प्रबंधन कार्यक्रम से पहले और बाद में मापता है।

कर्मचारीपहले (X)बाद में (Y)अंतर (D = X – Y)D2D^2
18072864
28578749
37874416
49083749
57670636

गणना करने पर, t = 9.41 आता है। यदि t-सूची के अनुसार नाजुक मान 2.776 है, तो |t| > 2.776, जिसका अर्थ है कि तनाव प्रबंधन कार्यक्रम प्रभावी था


4. t-परिक्षण की सीमाएँ और धारणाएँ

धारणाएँ (Assumptions)

  • डेटा को सामान्य वितरण (Normal Distribution) में होना चाहिए।
  • समूहों का प्रसरण समान होना चाहिए (स्वतंत्र t-परिक्षण के लिए)।
  • डेटा स्वतंत्र होना चाहिए (स्वतंत्र t-परिक्षण के लिए)।

सीमाएँ (Limitations)

  • छोटे नमूना आकार के लिए उपयुक्त।
  • विषम मूल्यों (Outliers) से प्रभावित हो सकता है।
  • केवल दो समूहों की तुलना के लिए उपयोगी।

निष्कर्ष

  • स्वतंत्र t-परिक्षण का उपयोग दो अलग-अलग समूहों के औसत की तुलना के लिए किया जाता है।
  • युग्मित t-परिक्षण का उपयोग एक ही समूह के अलग-अलग स्थितियों की तुलना के लिए किया जाता है।
  • यह शोधकर्ताओं और विश्लेषकों को समूहों के बीच महत्वपूर्ण अंतर को समझने में मदद करता है।

UNIT-3(3.3) Calculation of t-test: Independent group and Correlated group.

Introduction

The t-test is a statistical test used to compare the means of two groups and determine whether the differences between them are statistically significant. It is widely used in research fields such as psychology, education, medicine, and business.

There are two main types of t-tests:

  1. Independent Samples t-test (for comparing two separate groups)
  2. Paired (Correlated) Samples t-test (for comparing the same group at different times or conditions)

In this article, we will cover:

  • The concept of the t-test and its importance
  • Independent Samples t-test – Formula, Calculation, and Example
  • Paired (Correlated) Samples t-test – Formula, Calculation, and Example
  • Interpretation of t-test results
  • Assumptions and Limitations of t-tests

1. Concept of t-test and Its Importance

What is a t-test?

A t-test is a statistical test used to compare the means of two groups to determine if there is a significant difference between them. It is based on the concept of the t-distribution and is used when the sample size is small (n < 30).

Why is the t-test important?

  • It helps determine if differences between two groups are real or due to random chance.
  • Used in experimental research to compare control and experimental groups.
  • Helps in decision-making in psychology, business, education, and healthcare.

2. Independent Samples t-test

Concept

The Independent Samples t-test is used when we compare the means of two different (independent) groups. For example, comparing the exam scores of male and female students or the reaction times of two different groups of participants in an experiment.

Formula

The formula for an independent samples t-test is:

t=X1ˉ−X2ˉs12n1+s22n2t = \frac{\bar{X_1} – \bar{X_2}}{\sqrt{\frac{s_1^2}{n_1} + \frac{s_2^2}{n_2}}}

Where:

  • X1ˉ\bar{X_1} and X2ˉ\bar{X_2} = Mean of group 1 and group 2
  • s12s_1^2 and s22s_2^2 = Variance of group 1 and group 2
  • n1n_1 and n2n_2 = Sample size of group 1 and group 2

The degrees of freedom (df) are calculated as:

df=n1+n2−2df = n_1 + n_2 – 2

Step-by-Step Calculation

Example:

A researcher wants to test whether there is a significant difference in the test scores of students taught using traditional methods versus modern teaching methods.

GroupTest ScoresMean (Xˉ\bar{X})Variance (s2s^2)Sample Size (n)
Traditional50, 55, 52, 48, 5351.66.35
Modern60, 62, 58, 65, 6361.67.35

Now, apply the formula:

t=51.6−61.66.35+7.35t = \frac{51.6 – 61.6}{\sqrt{\frac{6.3}{5} + \frac{7.3}{5}}} t=−101.26+1.46t = \frac{-10}{\sqrt{1.26 + 1.46}} t=−102.72t = \frac{-10}{\sqrt{2.72}} t=−101.65=−6.06t = \frac{-10}{1.65} = -6.06

Interpretation

If the critical value from the t-table (for df=8df = 8 and α = 0.05) is 2.306, since |t| = 6.06 is greater than 2.306, we reject the null hypothesis. This means that the modern teaching method leads to significantly higher scores.


3. Paired (Correlated) Samples t-test

Concept

The Paired (Correlated) Samples t-test is used when comparing two related samples or the same group at different times. For example:

  • Measuring students’ test scores before and after a training program.
  • Comparing participants’ heart rate before and after an exercise session.

Formula

The formula for a paired t-test is:

t=DˉsD/nt = \frac{\bar{D}}{s_D / \sqrt{n}}

Where:

  • Dˉ\bar{D} = Mean of the differences between paired values
  • sDs_D = Standard deviation of the differences
  • nn = Number of pairs

The degrees of freedom (df) are calculated as:

df=n−1df = n – 1

Step-by-Step Calculation

Example:

A psychologist measures the stress levels of 5 employees before and after a stress management program.

EmployeeBefore (X)After (Y)Difference (D = X – Y)D2D^2
18072864
28578749
37874416
49083749
57670636

Now, calculate:

  • ∑D=8+7+4+7+6=32\sum D = 8 + 7 + 4 + 7 + 6 = 32
  • ∑D2=64+49+16+49+36=214\sum D^2 = 64 + 49 + 16 + 49 + 36 = 214
  • Dˉ=∑Dn=325=6.4\bar{D} = \frac{\sum D}{n} = \frac{32}{5} = 6.4
  • Variance of D:

sD2=∑D2−(∑D)2nn−1s_D^2 = \frac{\sum D^2 – \frac{(\sum D)^2}{n}}{n-1} sD2=214−(32)255−1s_D^2 = \frac{214 – \frac{(32)^2}{5}}{5-1} sD2=214−204.84=9.24=2.3s_D^2 = \frac{214 – 204.8}{4} = \frac{9.2}{4} = 2.3 sD=2.3=1.52s_D = \sqrt{2.3} = 1.52

Now, calculate t:

t=6.41.52/5t = \frac{6.4}{1.52 / \sqrt{5}} t=6.40.68=9.41t = \frac{6.4}{0.68} = 9.41

Interpretation

If the critical value from the t-table (for df=4df = 4 and α = 0.05) is 2.776, since |t| = 9.41 is greater than 2.776, we reject the null hypothesis. This means the stress management program significantly reduced stress levels.


4. Interpretation of t-test Results

  1. If ∣t∣|t| is greater than the critical value → Reject the null hypothesis → There is a significant difference.
  2. If ∣t∣|t| is less than the critical value → Fail to reject the null hypothesis → No significant difference.

5. Assumptions and Limitations of t-test

Assumptions

  • Data should be normally distributed.
  • Groups should have equal variances (for independent t-test).
  • Observations should be independent (for independent t-test).

Limitations

  • Not suitable for non-normal data.
  • Sensitive to outliers.
  • Works best for small sample sizes.

Conclusion

The Independent Samples t-test is used to compare two separate groups, while the Paired Samples t-test is used for repeated measurements on the same individuals. Understanding these tests helps researchers make informed conclusions about differences in means between groups.

UnNoticed Digital College

An activist by nature and educator by profession, have been working in the fields of health and education since 2016. I firmly believe that education is the only way through which one can reach, each and every destination one wants to reach. As Samuel Beckett says, "Ever tried, Ever failed. No matter. Try again, Fail again. Try better, Fail better." The one who tries, fails; and the one who fails, wins.

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button