Μέσες τιμές δυνάμεων αθροίσματος ανεξαρτήτων. Ροπές. Ανισότητα Markov

Είδαμε ξανά σήμερα τον υπολογισμό της μέσης τιμής της 3ης και 4ης δύναμης του $$S_{n}=X_{1}+X_{2}+...+X_{n}$$ όπου τα $$X_{j}$$ είναι ανεξάρτητα. Είδαμε τον υπολογισμό και στην περίπτωση που τα $$X_{j}$$έχουν μέση τιμή 0 και στην περίπτωση που αυτό δε συμβαίνει. Είδαμε την έννοια της ροπής μιας ΤΜ και πώς η ύπαρξη της 2ης ροπής συνεπάγεται τον καλό ορισμό της διασποράς και της μέσης τιμής της ΤΜ. Είδαμε, χωρίς απόδειξη, την ανισότητα του Markov για μη αρνητικές ΤΜ και το πώς αυτή εφαρμόζεται σ' ένα "πραγματικό" παράδειγμα.

Aνισότητα Chebyshev και εφαρμογές της, νόμος των μεγάλων αριθμών

Είδαμε ξανά την ανισότητα Markov σήμερα και την αποδείξαμε. Είδαμε τη γενικευμένη ανισότητα Markov και επίσης χρησιμοποιήσαμε την ανισότητα Markov για να αποδείξουμε την ανισότητα Chebyshev. Σε αντίθεση με την ανισότητα Markov, που χρησιμοποιεί μόνο τη μέση τιμή μιας ΤΜ, η ανισότητα Chebyshev χρησιμοποιεί και τη διασπορά της ΤΜ. Άρα η ανισότητα Chebyshev εφαρμόζεται μόνο σε ΤΜ για τις οποίες η διασπορά υπάρχει και όσο μικρότερη η διασπορά τόσο καλύτερο αποτέλεσμα δίνει η ανισότητα (μικρότερο άνω φράγμα για την πιθανότητα του ίδιου ενδεχομένου). Σε γενικές γραμμές η ανισότητα Chebyshev δίνει καλύτερα αποτελέσματα από την ανισότητα Markov, και αυτό είναι κάπως αναμενόμενο μια και χρησιμοποιεί περισσότερα δεδομένα για την ΤΜ. Είδαμε διάφορα παραδείγματα εφαρμογής της ανισότητας Chebyshev και επίσης στο τέλος είδαμε ένα παράδειγμα του λεγόμενου "νόμου των μεγάλων αριθμών": Ας είναι $$X_{1},X_{2},...,X_{N}$$ ανεξάρτητες και ισόνομες ΤΜ με μέση τιμή μ και διασπορά $$\sigma^{2}(X_{j})=\sigma, (j=1,2,...,N)$$ . Ορίζουμε το λεγόμενο "δειγματικό μέσο" των $$X_{1},X_{2},...,X_{N}$$ να είναι η ΤΜ $$S=\frac{X_{1}+...+X_{N}}{N}$$ Είναι άμεσο από τη γραμμικότητα της μέσης τιμής ότι $$\mathbb{E}(S)=\mu$$ και επειδή η S είναι άθροισμα ανεξαρτήτων προκύπτει επίσης

$$\sigma^{2}(S)=\sigma^{2}(\frac{X_{1}}{N})+\cdots+\sigma^{2}(\frac{X_{N}}{N})=\frac{1}{N}\sigma^{2}(X1)+\cdots+\frac{1}{N}\sigma^{2}(X_{N})=\frac{\sigma^{2}}{N}$$

 Έχουμε λοιπόν $$\mathbb{E}(S) = \mu$$ και $$\sigma(S)=\frac{\sigma}{\sqrt{N}}$$ Ας είναι τώρα ε>0 ένας θετικός αριθμός, αλλά οσοδήποτε μικρός θέλουμε. Πόσο πιθανό είναι ο δειγματικός μέσος S να απέχει παραπάνω από ε από τη μέση τιμή του μ; Την απάντηση σε αυτό μας δίνει εύκολα η ανισότητα Chebyshev εφαρμοσμένη στη μεταβλητή S: $$\mathbb{P}[|S-\mu|\geq \epsilon]\leq \frac{\sigma^{2}(S)}{\epsilon}=\frac{\sigma^{2}}{\epsilon^{2}N}$$και από την ανισότητα αυτή γίνεται φανερό ότι η "πιθανότητα απόκλισης" που βρίσκεται στο αριστερό μέλος τείνει στο 0 όταν $$N\rightarrow \infty$$Αν λοιπόν έχουμε ένα πείραμα που παράγει, κάθε φορά που το εκτελούμε ανεξάρτητα, ένα αντίγραφο μιας ΤΜ X (π.χ. ας πούμε ότι θέλουμε να μετρήσουμε το μέσος ύψος των Ελλήνων ανδρών και το πείραμά μας είναι να βρούμε ένα τυχαίο άνδρα και να καταγράψουμε το ύψος του X) τότε αν εκτελέσουμε πολλές φορές το πείραμα (δηλ $$N\rightarrow \infty$$ ) και πάρουμε το μέσο όρο των τιμών που καταγράφουμε (αυτός είναι ο δειγματικός μέσος S) η πιθανότητα είναι πολύ μεγάλη, όποιο σφάλμα ε>0 κι αν προδιαγράψουμε, ότι η τιμή S που υπολογίσαμε απέχει το πολύ ε από την τιμή μ που θέλουμε να υπολογίσουμε. Όσο πιο μεγάλο το δείγμα μας (ο αριθμός N) τόσο πιο μεγάλη (κοντά στο 1 δηλ.) και η πιθανότητα ότι έχουμε εκτιμήσει το μ με σφάλμα το πολύ ε. Αν μάλιστα γνωρίζουμε το $$\sigma^{2}$$ , ή ένα άνω φράγμα γι' αυτό, τότε μπορούμε και ποσοτικά να πούμε πόσο μεγάλο πρέπει να είναι το δείγμα μας ώστε η πιθανότητα σφάλματος να είναι π.χ. μικρότερη από 0.001. Νόμος μεγάλων αριθμών ονομάζεται το γεγονός ότι $$\mathbb{P}[|S-\mu|\geq \epsilon]\rightarrow 0$$ όταν $$N\rightarrow \infty$$. Όσο πιο μεγάλο είναι δηλ. το δείγμα μας τόσο πιο σίγουροι είμαστε ότι εκτιμούμε σωστά την ποσότητα που μας ενδιαφέρει (το μέσο της κατανομής του Χ).

Last modified: Sunday, 20 July 2014, 7:27 PM