SPR-Spring2014-HW1.pdf

‫ﺑﺴﻤﻪ ﺗﻌﺎﻟﯽ‬
‫ﺍﻟﮕﻮﺷﻨﺎﺳﯽ ﺁﻣﺎﺭﯼ‬
‫ﻧﯿﻢﺳﺎﻝ ﺩﻭﻡ ‪۹۲-۹۳‬‬
‫ﺩﮐﺘﺮ ﺭﺑﯿﻌﯽ‬
‫ﺩﺍﻧﺸﮑﺪﻩ ﻣﻬﻨﺪﺳﯽ ﮐﺎﻣﭙﯿﻮﺗﺮ‬
‫ﺗﻤﺮ ﯾﻦ ﺍﻭﻝ‬
‫ﻣﻔﺎﻫﯿﻢ ﺍﻭﻟﯿﻪ‪ ،‬ﺍﺳﺘﺨﺮﺍﺝ‪ ،‬ﮐﺎﻫﺶ ﻭﯾﮋﮔﯽ‬
‫ﺯﻣﺎﻥ ﺗﺤﻮﯾﻞ‪ ۵ :‬ﺍﺳﻔﻨﺪ‬
‫‪ .۱‬ﻓﺮﺽ ﮐﻨﯿﺪ ﺗﻮﺯﯾﻊ � ﺳﻪ ﻣﺘﻐﯿﺮ ﺑﻪ ﺻﻮﺭﺕ ﺯﯾﺮ ﻗﺎﺑﻞ ﻧﻮﺷﺘﻦ ﺑﺎﺷﺪ )‪ P (X, Y, Z) = P (Z|Y ).P (Y |X).P (X‬ﻧﺸﺎﻥ‬
‫ﺩﻫﯿﺪ ﮐﻪ ﺑﺎ ﺍﯾﻦ ﻓﺮﺽ ﻣﯽﺗﻮﺍﻥ ﻧﺘﯿﺠﻪ ﮔﺮﻓﺖ ﮐﻪ ﺑﺎ ﺩﺍﺷﺘﻦ ﻣﻘﺪﺍﺭ ﻣﺘﻐﯿﺮ ‪ ،Y‬ﺩﻭ ﻣﺘﻐﯿﺮ ‪ X‬ﻭ ‪ Z‬ﺍﺯ ﻫﻢ ﻣﺴﺘﻘﻞ ﻫﺴﺘﻨﺪ‪.‬‬
‫‪ .۲‬ﻧﺸﺎﻥ ﺩﻫﯿﺪ ﮐﻪ ﺍﮔﺮ ﻣﺘﻐﯿﺮﻫﺎﯼ ﺗﺼﺎﺩﻓﯽ ‪ Xi‬ﻣﺘﻐﯿﺮﻫﺎﯼ ﻣﺴﺘﻘﻞ ﺑﺎ ﺗﻮﺯﯾﻊ ﯾﮑﺴﺎﻥ )‪ (i.i.d‬ﺑﺎ ﺗﻮﺯﯾﻊ ﮔﺎﻭﺳﯽ ﺑﺎﺷﻨﺪ‪،‬‬
‫‪۱ ∑n‬‬
‫‪۱ ∑n‬‬
‫‪۲‬‬
‫‪ (S ۲ = n−۱‬ﻧﻤﻮﻧﻪﻫﺎ ﺩﻭ ﻣﺘﻐﯿﺮ ﺗﺼﺎﺩﻓﯽ‬
‫‪ (X = n‬ﻭ ﻭﺍﺭ ﯾﺎﻧﺲ ) )‪i=۱ (Xi − X‬‬
‫ﺁﻧﮕﺎﻩ ﻣﯿﺎﻧﮕﯿﻦ ) ‪i=۱ Xi‬‬
‫ﻣﺴﺘﻘﻞ ﺧﻮﺍﻫﻨﺪ ﺑﻮﺩ‪.‬‬
‫‪ .۳‬ﺩﻭ ﻣﺘﻐﯿﺮ ﺗﺼﺎﺩﻓﯽ ‪ X‬ﻭ ‪ Y‬ﺭﺍ ﺩﺭ ﻧﻈﺮ ﺑﮕﯿﺮ ﯾﺪ‪ .‬ﻣﯿﺎﻧﮕﯿﻦ ﻭ ﺍﻧﺤﺮﺍﻑ ﺍﺯ ﻣﻌﯿﺎﺭ ﺭﺍ ﺑﻪ ﺗﺮﺗﯿﺐ ﺑﺎ ‪ µ‬ﻭ ‪ σ‬ﻧﺸﺎﻥ ﻣﯽﺩﻫﯿﻢ‪.‬‬
‫ﺭﺍﺑﻄﻪ ﺑﯿﻦ ‪ X‬ﻭ ‪ Y‬ﺑﻪ ﺭ ﻭﺵﻫﺎﯼ ﻣﺨﺘﻠﻔﯽ ﻣﯽﺗﻮﺍﻧﺪ ﺑﯿﺎﻥ ﺷﻮﺩ‪ .‬ﺩﺭ ﺍﯾﻦ ﻣﺴﺌﻠﻪ ﺍﺯ ﺳﻪ ﻣﻮﺭﺩ ﺯﯾﺮ ﺍﺳﺘﻔﺎﺩﻩ ﻣﯽﮐﻨﯿﻢ‪.‬‬
‫• ﻫﻤﺒﺴﺘﮕﯽ‪cov(X, Y ) = E[(X − µX )(Y − µY )] = E[XY ] − µX µY :‬‬
‫• ﺿﺮ ﯾﺐ ﻫﻤﺒﺴﺘﮕﯽ‪:‬‬
‫) ‪cov(XY‬‬
‫‪σX σY‬‬
‫= ‪ρXY‬‬
‫• ﺍﻃﻼﻋﺎﺕ ﻣﺘﻘﺎﺑﻞ‪ I(X, Y ) = H(X) − H(X|Y ) = KL(p(X, Y )||p(X)p(Y )) :‬ﮐﻪ ﺩﺭ ﺁﻥ ﺩﺍﺭ ﯾﻢ‪:‬‬
‫∫‬
‫)‪(X‬‬
‫)‪DKL (p۱ (X)||p۲ (X)) = p۱ (x)ln( pp۱ (X‬‬
‫‪)dx‬‬
‫‪۲‬‬
‫)ﺁ( ﺛﺎﺑﺖ ﮐﻨﯿﺪ ﻗﺪﺭ ﻣﻄﻠﻖ ﺿﺮ ﯾﺐ ﻫﻤﺒﺴﺘﮕﯽ ﺑﯿﻦ ﺩﻭ ﻣﺘﻐﯿﺮ ﮐﻤﺘﺮ ‪ ،‬ﻣﺴﺎﻭﯼ ‪ ۱‬ﺍﺳﺖ‪).‬ﯾﺎﺩﺁﻭﺭﯼ‪ :‬ﻧﺎﻣﺴﺎﻭﯼ‬
‫ﮐﻮﺷﯽ‪-‬ﺷﻮﺍﺭﺗﺰ ﺑﯿﺎﻥ ﻣﯽﮐﻨﺪ ﮐﻪ ) ‪( (E[XY ]۲ ≤ E[X]۲ E[Y ]۲‬‬
‫)ﺏ( ﺗﺤﺖ ﭼﻪ ﺷﺮﺍﯾﻄﯽ ‪ ρXY = ۱‬ﻭ ﺩﺭ ﭼﻪ ﺷﺮﺍﯾﻄﯽ ‪ ρXY = −۱‬ﻣﯽﺷﻮﺩ؟‬
‫)ﺝ( ﺍﮔﺮ ﻣﻘﺪﺍﺭ ‪ ،I(X, Y ) = ۰‬ﺁﯾﺎ ﻣﯽﺗﻮﺍﻥ ﻧﺘﯿﺠﻪ ﮔﺮﻓﺖ ﮐﻪ ‪ ρXY = ۰‬ﺍﮔﺮ ﺑﻠﻪ‪ ،‬ﺍﺩﻋﺎﯼ ﺧﻮﺩ ﺭﺍ ﺛﺎﺑﺖ ﮐﻨﯿﺪ ﺩﺭ‬
‫ﻏﯿﺮ ﺍﯾﻨﺼﻮﺭﺕ ﻣﺜﺎﻝ ﻧﻘﺾ ﺑﺰﻧﯿﺪ‪.‬‬
‫)ﺩ( ﺍﮔﺮ ﻣﻘﺪﺍﺭ ‪ ، ρXY = ۰‬ﺁﯾﺎ ﻣﯽﺗﻮﺍﻥ ﻧﺘﯿﺠﻪ ﮔﺮﻓﺖ ﮐﻪ ‪ .I(X, Y ) = ۰‬ﺍﮔﺮ ﺑﻠﻪ‪ ،‬ﺍﺩﻋﺎﯼ ﺧﻮﺩ ﺭﺍ ﺛﺎﺑﺖ ﮐﻨﯿﺪ ﺩﺭ‬
‫ﻏﯿﺮ ﺍﯾﻨﺼﻮﺭﺕ ﻣﺜﺎﻝ ﻧﻘﺾ ﺑﺰﻧﯿﺪ‪.‬‬
‫‪ .۴‬ﺩﺍﺩﻩﻫﺎﯼ ﺩﻭ ﺑﻌﺪﯼ ﻣﺘﻌﻠﻖ ﺑﻪ ﯾﮏ ﮐﻼﺱ ﺭﺍ ﺩﺭ ﻧﻈﺮ ﺑﮕﯿﺮ ﯾﺪ‪ ،‬ﮐﻪ ﺩﺍﺭﺍﯼ ﯾﮏ ﻓﺮﻡ ﮔﺎﻭﺳﯽ ﺑﺎ ﭘﺎﺭﺍﻣﺘﺮﻫﺎﯼ ﺯﯾﺮ ﻣﯽﺑﺎﺷﻨﺪ‪.‬‬
‫]‬
‫‪σ۱۲‬‬
‫‪, σ۱۲ = σ۲۱ = σ‬‬
‫‪σ۲۲‬‬
‫] [‬
‫] [‬
‫‪[ ۲‬‬
‫‪X۱‬‬
‫‪µ۱‬‬
‫‪σ۱‬‬
‫=‪X‬‬
‫= ‪, p(X|ω) ∼ N (µ, Σ), µ‬‬
‫= ‪,Σ‬‬
‫‪X۲‬‬
‫‪µ۲‬‬
‫‪σ۲۱‬‬
‫)ﺁ( ﺭﺍﺑﻄﻪ ﻓﺎﺻﻠﻪ ﺍﻗﻠﯿﺪﺳﯽ ﺑﯿﻦ ﻧﻘﻄﻪ ‪ X‬ﻭ ﻣﺮﮐﺰ ﮔﺎﻭﺳﯽ )‪ (µ‬ﺭﺍ ﺑﻨﻮﯾﺴﯿﺪ‪.‬‬
‫)ﺏ( ﺭﺍﺑﻄﻪ ﻓﺎﺻﻠﻪ ﻣﺎﻫﺎﻻﻧﻮﺑﯿﺲ ﺑﯿﻦ ‪ X‬ﻭ ﻣﺮﮐﺰ ﮔﺎﻭﺳﯽ )‪ (µ‬ﺭﺍ ﺑﻨﻮﯾﺴﯿﺪ‪) .‬ﺑﺎ ﺿﺮﺏ ﻣﺎﺗﺮ ﯾﺲﻫﺎ‪ ،‬ﺭﺍﺑﻄﻪ ﺭﺍ ﺳﺎﺩﻩ‬
‫ﮐﻨﯿﺪ‪(.‬‬
‫)ﺝ( ﺭﺍﺑﻄﻪ ﺑﺪﺳﺖ ﺁﻣﺪﻩ ﺩﺭ ﻗﺴﻤﺖ ﻗﺒﻞ ﺑﺮﺍﯼ ﺣﺎﻟﺘﯽ ﮐﻪ ﻣﺎﺗﺮ ﯾﺲ ﮐﻮﺍﺭ ﯾﺎﻧﺲ ﻗﻄﺮﯼ ﺑﺎﺷﺪ‪ ،‬ﺑﻪ ﭼﻪ ﺻﻮﺭﺗﯽ ﺳﺎﺩﻩ‬
‫ﺧﻮﺍﻫﺪ ﺷﺪ؟ ﺁﯾﺎ ﺍﺭﺗﺒﺎﻃﯽ ﺑﯿﻦ ﺭﺍﺑﻄﻪ ﺑﺪﺳﺖ ﺁﻣﺪﻩ ﺑﺎ ﺭﺍﺑﻄﻪ ﺍﻗﻠﯿﺪﺳﯽ ﻭﺟﻮﺩ ﺩﺍﺭﺩ؟‬
‫‪۱‬‬
‫)ﺩ( ﺭﺍﺑﻄﻪﻫﺎﯼ ﺑﺪﺳﺖ ﺁﻣﺪﻩ ﺩﺭ ﻗﺴﻤﺖ ﺁ ﻭ ﺏ ﺭﺍ ﺑﺎ ﻫﻢ ﻣﻘﺎﯾﺴﻪ ﮐﻨﯿﺪ‪ .‬ﺩﺭ ﭼﻪ ﺷﺮﺍﯾﻂ ﺩﻭ ﺭﺍﺑﻄﻪ ﺑﺎ ﻫﻢ ﺑﺮﺍﺑﺮ ﺧﻮﺍﻫﻨﺪ‬
‫ﺷﺪ؟‬
‫)ﻫ( ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻣﻘﺎﯾﺴﻪﻫﺎﯼ ﻗﺴﻤﺖ ﻗﺒﻞ‪ ،‬ﺩﺭ ﭼﻪ ﺷﺮﺍﯾﻄﯽ ﺑﻬﺘﺮ ﺍﺳﺖ ﮐﻪ ﺍﺯ ﻓﺎﺻﻠﻪ ﻣﺎﻻﻧﻮﺑﯿﺲ ﺍﺳﺘﻔﺎﺩﻩ ﺷﻮﺩ؟ ﺁﯾﺎ‬
‫ﺷﺮﺍﯾﻄﯽ ﻭﺟﻮﺩ ﺩﺍﺭﺩ ﮐﻪ ﺩﺭ ﺁﻥ ﺍﺳﺘﻔﺎﺩﻩ ﺍﺯ ﺍﻗﻠﯿﺪﺳﯽ ﻣﻨﻄﻘﯽﺗﺮ ﺍﺯ ﻓﺎﺻﻠﻪ ﻣﺎﻫﺎﻻﻧﻮﺑﯿﺲ ﺑﺎﺷﺪ؟‬
‫)ﻭ( ﭼﻪ ﺭﺍﻫﯽ ﺑﺮﺍﯼ ﻣﺤﺎﺳﺒﻪ ﻓﺎﺻﻠﻪ ﻣﺎﻫﺎﻻﻧﻮﺑﯿﺲ ﺑﯿﻦ ﺩﻭ ﻧﻤﻮﻧﻪ ﺍﺯ ﯾﮏ ﺗﻮﺯﯾﻊ ﮔﺎﻭﺳﯽ ﭘﯿﺸﻨﻬﺎﺩ ﻣﯽﮐﻨﯿﺪ‪ .‬ﺑﺎ ﺍﺳﺘﻔﺎﺩﻩ‬
‫ﺍﺯ ﺍﯾﻦ ﺭﺍﻫﮑﺎﺭ ﺩﺭ ﭼﻪ ﺣﺎﻟﺘﯽ ﻓﺎﺻﻠﻪ ﻣﺎﻫﺎﻻﻧﻮﺑﯿﺲ ﺑﯿﻦ ﺩﻭ ﻧﻘﻄﻪ ﺑﺎ ﻓﺎﺻﻠﻪ ﺍﻗﻠﯿﺪﺳﯽ ﺑﯿﻦ ﺁﻥﻫﺎ ﺑﺮﺍﺑﺮ ﺧﻮﺍﻫﺪ‬
‫ﺷﺪ؟‬
‫‪ .۵‬ﻓﺮﺽ ﮐﻨﯿﺪ ‪ A‬ﻣﺎﺗﺮ ﯾﺴﯽ ﻣﺘﻘﺎﺭﻥ ‪ n × n‬ﺑﺎﺷﺪ‪ .‬ﻣﻮﺍﺭﺩ ﺯﯾﺮ ﺭﺍ ﺛﺎﺑﺖ ﮐﻨﯿﺪ‪.‬‬
‫‪∂A −۱‬‬
‫)ﺁ(‬
‫‪= −A−۱ ∂X‬‬
‫‪A‬‬
‫‪∂A−۱‬‬
‫‪∂X‬‬
‫)ﺏ( ‪(A−۱ )T = (AT )−۱‬‬
‫)ﺝ( ﻧﺸﺎﻥ ﺩﻫﯿﺪ ﺑﺮﺩﺍﺭﻫﺎﯼ ﻭﯾﮋﻩ) ‪ (ui‬ﻣﺎﺗﺮ ﯾﺲ ‪ A‬ﺑﺮﻫﻢ ﻋﻤﻮﺩ ﺧﻮﺍﻫﻨﺪ ﺑﻮﺩ‪.‬‬
‫‪∏n‬‬
‫= |‪ |A‬ﻭ ‪i=۱ λi‬‬
‫)ﺩ( ﺑﺎ ﺍﺳﺘﻔﺎﺩﻩ ﺍﺯ ﻧﺘﯿﺠﻪ ﻗﺴﻤﺖ ﻗﺒﻞ ﻧﺸﺎﻥ ﺩﻫﯿﺪ ﮐﻪ ‪i=۱ λi‬‬
‫‪∑n‬‬
‫= )‪T r(A‬‬
‫‪′‬‬
‫‪ .۶‬ﻧﺸﺎﻥ ﺩﻫﯿﺪ ﮐﻪ ﺍﮔﺮ ﺩﺭ ‪ PCA‬ﺗﺒﺪﯾﻞ ﯾﺎﻓﺘﻪ ﺭﺍ ﺑﺼﻮﺭﺕ ‪ X = AT X‬ﻧﺸﺎﻥ ﺩﻫﯿﻢ‪ .‬ﮐﻪ ] ‪ A = [a۱ , ..., ad‬ﺑﺎﺷﺪ ﮐﻪ‬
‫ﺩﺭ ﺁﻥ ‪ a۱ , ..., ad‬ﺑﺮﺩﺍﺭﻫﺎﯼ ﻭﯾﮋﻩ ﻣﺎﺗﺮ ﯾﺲ ﻫﻤﺒﺴﺘﮕﯽ ) ‪ (Rx‬ﺑﺎﺷﻨﺪ ﻭ ﻭﯾﮋﮔﯽﻫﺎ ﺣﻘﯿﻘﯽ ﺑﺎﺷﻨﺪ‪ .‬ﺁﻧﮕﺎﻩ ﻭﯾﮋﮔﯽﻫﺎ‬
‫ﺩﺭ ﻓﻀﺎﯼ ﺟﺪﯾﺪ ﻧﺎﻫﻤﺒﺴﺘﻪ )‪ (Uncorrelated‬ﺧﻮﺍﻫﻨﺪ ﺑﻮﺩ‪) .‬ﻓﺮﺽ ﮐﻨﯿﺪ ﻭﯾﮋﮔﯽﻫﺎ ﻧﺮﻣﺎﻝﺳﺎﺯﯼ ﺷﺪﻩﺍﻧﺪ ﻭ ﺩﺍﺭﺍﯼ‬
‫ﻣﯿﺎﻧﮕﯿﻦ ﺻﻔﺮ ﻣﯽﺑﺎﺷﻨﺪ‪(.‬‬
‫‪ .۷‬ﻧﺸﺎﻥ ﺩﻫﯿﺪ ﺑﯿﺸﯿﻨﻪﺳﺎﺯﯼ ﺟﺪﺍﺳﺎﺯﯼ ﺩﻭ ﮐﻼﺱ ﺗﻮﺳﻂ ﯾﮏ ﺟﺪﺍﺳﺎﺯ ﺧﻄﯽ ﻃﺒﻖ ﺭ ﻭﺵ ﻓﯿﺸﺮ ﺑﺎ ﺍﯾﻦ ﻓﺮﺽ ﮐﻪ ﻓﻘﻂ‬
‫ﻣﯿﺎﻧﮕﯿﻦﻫﺎﯼ ﺗﺼﻮﯾﺮ ﺷﺪﻩ ﺩﺍﺭﺍﯼ ﺑﯿﺸﺘﺮ ﯾﻦ ﻓﺎﺻﻠﻪ ﺑﺎﺷﻨﺪ )ﺑﺪﻭﻥ ﺩﺭ ﻧﻈﺮﮔﺮﻓﺘﻦ ﻣﯿﺰﺍﻥ ﭘﺮﺍﮐﻨﺪﮔﯽ ﺩﺍﺩﻩﻫﺎ(‪ ،‬ﺑﺎ ﻗﯿﺪ‬
‫‪ wT w = ۱‬ﻣﻨﺠﺮ ﺑﻪ ﺍﻧﺘﺨﺎﺏ ﯾﮏ ‪ w‬ﺑﺎ ﺷﺮﺍﯾﻂ ﺯﯾﺮ ﻣﯽﺷﻮﺩ‪:‬‬
‫) ‪w ∝ (µ′۲ − µ′۱‬‬
‫‪ .۸‬ﺩﺭ ﻣﻮﺭﺩ ﺟﺪﺍﺳﺎﺯ ﺧﻄﯽ ﻓﯿﺸﺮ )‪ (LDA‬ﺭﺍﺑﻄﻪ ﺯﯾﺮ ﺭﺍ ﺛﺎﺑﺖ ﮐﻨﯿﺪ‪:‬‬
‫‪wT SB w‬‬
‫‪wT SW w‬‬
‫=‬
‫‪(µ′۲ −µ′۱ )۲‬‬
‫‪S۱′۲ +S۲′۲‬‬
‫= )‪J(w‬‬
‫‪ .۹‬ﺗﻤﺮ ﯾﻦ ﺑﺮﻧﺎﻣﻪﻧﻮﯾﺴﯽ‪ :‬ﻫﺪﻑ ﺍﺯ ﺍﯾﻦ ﺗﻤﺮ ﯾﻦ ﻧﺸﺎﻥ ﺩﺍﺩﻥ ﻣﯿﺰﺍﻥ ﺍﻧﺮ ﮊﯼ ﻣﻮﺟﻮﺩ ﺩﺭ ﺗﻌﺪﺍﺩ ﮐﻤﯽ ﺍﺯ ﻣﻮﻟﻔﻪﻫﺎﯼ ﺍﺻﻠﯽ‬
‫‪ PCA‬ﺍﺳﺖ‪ .‬ﺑﺮﺍﯼ ﺍﯾﻦ ﻣﻨﻈﻮﺭ ﺍﺯ ﺗﺼﺎﻭﯾﺮ ﺧﺎﮐﺴﺘﺮﯼ ﺑﻬﺮﻩ ﻣﯽﮔﯿﺮ ﯾﻢ ﮐﻪ ﺩﺭ ﺁﻥﻫﺎ ﻫﺮ ﭘﯿﮑﺴﻞ ﺩﺍﺭﺍﯼ ﻣﻘﺪﺍﺭﯼ ﺑﯿﻦ‬
‫‪ ۰‬ﺗﺎ ‪ ۲۵۵‬ﺍﺳﺖ‪ .‬ﺍﮔﺮ ‪ M‬ﺳﻄﺮ ﯾﮏ ﺗﺼﻮﯾﺮ ‪ M × N‬ﺭﺍ ﭘﺸﺖ ﺳﺮ ﻫﻢ ﻗﺮﺍﺭ ﺩﻫﯿﻢ‪ ،‬ﯾﮏ ﺑﺮﺩﺍﺭ ﻭﯾﮋﮔﯽ ﺑﺎ ‪M N‬‬
‫ﻣﻮﻟﻔﻪ ﺑﺪﺳﺖ ﻣﯽﺁﯾﺪ‪ .‬ﺍﺯ ﺁﻧﺠﺎﯾﯽ ﮐﻪ ﺑﺎ ﺍﺳﺘﻔﺎﺩﻩ ﺍﺯ ﺍﯾﻦ ﺭ ﻭﺵ )ﮐﻪ ﺍﺯ ﺑﺪﯾﻬﯽﺗﺮ ﯾﻦ ﺭﺍﻩﻫﺎ ﺑﺮﺍﯼ ﺗﺒﺪﯾﻞ ﺗﺼﺎﻭﯾﺮ ﺑﻪ‬
‫ﺑﺮﺩﺍﺭ ﻭﯾﮋﮔﯽ ﺍﺳﺖ( ﺗﻌﺪﺍﺩ ﺍﺑﻌﺎﺩ ﺑﺮﺩﺍﺭﻫﺎﯼ ﻭﯾﮋﮔﯽ ﺣﺘﯽ ﺑﺮﺍﯼ ﺗﺼﺎﻭﯾﺮ ﮐﻮﭼﮏ ﺑﺴﯿﺎﺭ ﺯﯾﺎﺩ ﺧﻮﺍﻫﺪ ﺑﻮﺩ‪ ،‬ﺍﺳﺘﻔﺎﺩﻩ ﺍﺯ‬
‫ﺭ ﻭﺵﻫﺎﯼ ﮐﺎﻫﺶ ﺑﻌﺪ ﺍﺟﺘﻨﺎﺏﻧﺎﭘﺬﯾﺮ ﺧﻮﺍﻫﺪ ﺑﻮﺩ‪.‬‬
‫ﻣﺠﻤﻮﻋﻪ ﺗﺼﺎﻭﯾﺮ ﺻﻮﺭﺕ ﺭﺍ ﺍﺯ ﺳﺎﯾﺖ ﺩﺭﺱ ﮔﺮﻓﺘﻪ ﻭ ﭘﺲ ﺍﺯ ﺗﺒﺪﯾﻞ ﻫﺮ ﺗﺼﻮﯾﺮ ﺑﻪ ﺑﺮﺩﺍﺭ ﻭﯾﮋﮔﯽ‪ ،‬ﺍﻟﮕﻮﺭﯾﺘﻢ ﮐﺎﻫﺶ‬
‫ﺑﻌﺪ ‪ PCA‬ﺭﺍ ﺑﺮ ﺭ ﻭﯼ ﺁﻥﻫﺎ ﭘﯿﺎﺩﻩ ﮐﻨﯿﺪ ﻭ ﮐﺪ ﻣﺮﺑﻮﻃﻪ ﺭﺍ ﻫﻤﺮﺍﻩ ﭘﺎﺳﺦ ﺗﻤﺮ ﯾﻨﺎﺕ‪ ،‬ﺍﺭﺳﺎﻝ ﮐﻨﯿﺪ‪ .‬ﻣﺸﮑﻼﺕ ﻣﺮﺑﻮﻃﻪ ﻭ‬
‫ﺍﯾﺪﻩﻫﺎﯼ ﺧﻮﺩ ﺭﺍ ﺑﺮﺍﯼ ﺍﯾﻦ ﮐﺎﺭ ﺑﻪ ﺩﻗﺖ ﺗﻮﺿﯿﺢ ﺩﻫﯿﺪ‪ .‬ﺍﮔﺮ ﻗﺮﺍﺭ ﺑﺎﺷﺪ ﺍﺑﻌﺎﺩ ﺭﺍ ﺑﻪ ﻣﻘﺪﺍﺭﯼ ﻣﺎﻧﻨﺪ ‪ K‬ﮐﻪ ﺑﺴﯿﺎﺭ ﮐﻤﺘﺮ‬
‫ﺍﺯ ﺗﻌﺪﺍﺩ ﺍﺑﻌﺎﺩ ﺍﺳﺖ‪ ،‬ﮐﺎﻫﺶ ﺩﻫﯿﻢ‪ ،‬ﺑﻪ ﺳﻮﺍﻻﺕ ﺯﯾﺮ ﭘﺎﺳﺦ ﺩﻫﯿﺪ‪:‬‬
‫)ﺁ( ﺑﺮﺍﯼ ﺑﺎﺯﯾﺎﺑﯽ ﺗﺼﺎﻭﯾﺮ ﺍﺻﻠﯽ ﺍﺯ ﺑﺮﺩﺍﺭﻫﺎﯼ ﮐﺎﻫﺶ ﺑﻌﺪ ﯾﺎﻓﺘﻪ‪ ،‬ﺑﻪ ﭼﻪ ﺍﻃﻼﻋﺎﺕ ﺍﺿﺎﻓﻪﺍﯼ ﻧﯿﺎﺯﻣﻨﺪﯾﻢ؟‬
‫)ﺏ( ﺿﻤﻦ ﻧﻤﺎﯾﺶ ﻧﺘﺎﯾﺞ ﺑﻪ ﺍﺯﺍﯼ ﺍﺑﻌﺎﺩ ﻣﺨﺘﻠﻒ‪ ،‬ﺑﯿﺎﻥ ﮐﻨﯿﺪ ﮐﻪ ﮐﻤﺘﺮ ﯾﻦ ﻣﻘﺪﺍﺭ ‪ K‬ﺑﺮﺍﯼ ﺍﯾﻨﮑﻪ ﭼﺸﻢ ﺷﻤﺎ ﻣﺘﻮﺟﻪ‬
‫ﺍﻓﺖ ﮐﯿﻔﯿﺖ ﻧﺸﻮﺩ‪ ،‬ﭼﻘﺪﺭ ﺍﺳﺖ؟‬
‫‪۲‬‬