A_short_introduction_to_Compressed_Sensing (Not Mine).pdf

‫ﺑﻪ ﻧﺎم ﺧﺪا‬
‫آزﻣﺎﻳﺸﮕﺎه رﺳﺎﻧﻪ ﻫﺎي دﻳﺠﻴﺘﺎل‬
‫ﺧﻼﺻﻪاي از ﻣﻄﺎﻟﻌﺎت اﻧﺠﺎم ﺷﺪه در ‪Compressed Sensing‬‬
‫ﺗﻬﻴﻪ ﻛﻨﻨﺪه‬
‫ﺳﻴﺪ ﻋﺒﺎس ﺣﺴﻴﻨﻲ‬
‫‪1390‬‬
‫‪1‬‬
‫
‬
‫‪٣ ...........................................................................................................................................١‬‬
‫‪ Compressed Sensing .٢‬؟ ‪٣ ........................................................................................................‬‬
‫‪ .٢.١‬دن و روشه! اول د‪!$‬ز ‪٤ ........................................................................................‬‬
‫‪)* +', .٢.٢‬م &'&دار ‪٦ ............................................................................................................‬‬
‫‪&!2 .3& ،CS !./ .٣‬ن را &‪50 1‬؟ ‪٧ ....................................................................................................‬‬
‫‪9 .٤‬ا‪ &'& 7.! 08‬دار‬
‫‪٨ ...........................................................................................................‬‬
‫‪, .٥‬اد &'&ه! <زم ‪١٣..................................................................................................................... .‬‬
‫‪ .٦‬روشه! !ز‪!$‬ز ‪!=$‬ل ‪١٤..............................................................................................................‬‬
‫‪!5 .٧‬رده! ‪١٦................................................................................................... Compressed Sensing‬‬
‫‪١٧.................................................................................................................................. MRI .٧.١‬‬
‫‪ .٧.٢‬دور‪١٧................................................................................................................. 0>?@ A‬‬
‫‪2‬‬
‫‪ .1‬ﻣﻘﺪﻣﻪ‪:‬‬
‫ﻫﺪف ﻣﺎ در ﭘﺮدازش ﺳﻴﮕﻨﺎل‪ ،‬درﻳﺎﻓﺖ‪ ،‬ﭘﺮدازش‪ ،‬و ذﺧﻴﺮهﺳﺎزي ﺑﻬﻴﻨﻪ ﺳﻴﮕﻨﺎل اﺳﺖ‪ .‬روش ﺷﻨﺎﺧﺘﻪ ﺷﺪه ﺑﺮاي‬
‫ﻧﻤﻮﻧﻪ ﺑﺮداري از ﺳﻴﮕﻨﺎلﻫﺎ‪ ،‬ﺑﺮاﺳﺎس ﻧﻈﺮﻳﻪ ﻣﻌﺮوف ﻧﻤﻮﻧﻪﺑﺮداري ﺷﺎﻧﻮن‪ 1‬اﺳﺖ‪ .‬ﺑﺮ ﻃﺒﻖ اﻳﻦ ﻧﻈﺮﻳﻪ ﺑﺮاي اﻳﻦ ﻛﻪ‬
‫ﺑﺘﻮان ﻳﻚ ﺳﻴﮕﻨﺎل را ﺑﻪ ﻃﻮر ﻛﺎﻣﻞ ﺑﺎزﻳﺎﺑﻲ ﻛﺮد ﺑﺎﻳﺪ ﻧﺮخ ﻧﻤﻮﻧﻪ ﺑﺮداري ﻣﺎ از دو ﺑﺮاﺑﺮ ﭘﻬﻨﺎي ﺑﺎﻧﺪ ﺳﻴﮕﻨﺎل ﺑﻴﺸﺘﺮ‬
‫ﺑﺎﺷﺪ‪ .‬اﻳﻦ ﻧﻈﺮﻳﻪ ﺑﺎﻋﺚ اﻳﺠﺎد ﺗﺤﻮل در ﺻﻨﻌﺖ ﭘﺮدازش ﺳﻴﮕﻨﺎل ﺷﺪ و ﺑﺎﻋﺚ ﺷﺪ ﻛﻪ ﺳﻴﺴﺘﻢﻫﺎي ﭘﺮدازش از آﻧﺎﻟﻮگ‬
‫ﺑﻪ دﻳﺠﻴﺘﺎل ﺗﻐﻴﻴﺮ ﭘﻴﺪا ﻛﺮدﻧﺪ و در واﻗﻊ ﺑﺎﻋﺚ اﻳﺠﺎد اﻧﻘﻼب دﻳﺠﻴﺘﺎل ﺷﺪ‪ .‬اﻣﺎ در ﺑﺴﻴﺎري از ﺳﻴﮕﻨﺎلﻫﺎﻳﻲ ﻛﻪ ﻣﺎ ﺑﺎ‬
‫آنﻫﺎ ﺳﺮ و ﻛﺎر دارﻳﻢ‪ ،‬ﻧﺮخ ﻧﻤﻮﻧﻪ ﺑﺮداري ﻧﺎﻳﻜﻮﺋﻴﺴﺖ‪ ،2‬ﺑﺴﻴﺎر ﺑﺎﻻﺳﺖ و ﺑﻨﺎﺑﺮاﻳﻦ ﻣﺎ ﺑﺮاي درﻳﺎﻓﺖ و ﭘﺮدازش ﻳﻚ‬
‫ﺳﻴﮕﻨﺎل ﻣﺠﺒﻮر ﺑﻪ ﭘﺮدازش ﺣﺠﻢ ﺑﺴﻴﺎر ﺑﺎﻻﻳﻲ از دادهﻫﺎ ﻫﺴﺘﻴﻢ‪ .‬ﺑﺮاي رﻓﻊ اﻳﻦ ﻣﺸﻜﻞ‪ ،‬اﻳﺪه ﻓﺸﺮدهﺳﺎزي ﺳﻴﮕﻨﺎل‬
‫ﻣﻄﺮح ﺷﺪ ﻛﻪ ﺑﺮ ﻃﺒﻖ آن ﭘﺲ از ﻧﻤﻮﻧﻪﺑﺮداري از ﺳﻴﮕﻨﺎل‪ ،‬ﺑﺎ ﺑﺮدن آن ﺑﻪ ﻳﻚ ﻓﻀﺎي ﺑﺮداري ﺟﺪﻳﺪ‪ ،‬ﺑﺎ ﺣﺠﻢ ﻛﻤﻲ‬
‫از اﻃﻼﻋﺎت‪ ،‬ﺳﻴﮕﻨﺎل را ﺑﺎ دﻗﺖ ﺑﺎﻻﻳﻲ ﺑﺎزﻳﺎﺑﻲ ﻛﻨﻨﺪ‪ .‬ﺑﺎ اﺳﺘﻔﺎده از اﻳﻦ اﻳﺪه‪ ،‬ﻣﺸﻜﻞ ﭘﺮدازش ﺳﻴﮕﻨﺎلﻫﺎ ﺗﺎ ﺣﺪ ﺧﻮﺑﻲ‬
‫ﻣﺮﺗﻔﻊ ﺷﺪ اﻣﺎ ﻫﻢﭼﻨﺎن در ﻧﻤﻮﻧﻪ ﮔﻴﺮي از ﺳﻴﮕﻨﺎل ﻣﺸﻜﻞ ﺑﺎﻗﻲ ﺑﻮد زﻳﺮا ﺳﺎﺧﺘﻦ دﺳﺘﮕﺎهﻫﺎﻳﻲ ﻛﻪ ﺑﺎ ﻧﺮخ‬
‫ﻧﺎﻳﻜﻮﺋﻴﺴﺖ‪ ،‬ﺑﺘﻮاﻧﻨﺪ ﻧﻤﻮﻧﻪ ﺑﺮداري ﻛﻨﻨﺪ ﺑﺴﻴﺎر ﭘﺮﻫﺰﻳﻨﻪ و از ﻃﺮﻓﻲ در ﺑﺮﺧﻲ ﻣﻮاﻗﻊ ﻏﻴﺮﻣﻤﻜﻦ ﺑﻮد‪.‬‬
‫از آن ﺟﺎ ﻛﻪ ﭘﺲ از ﻧﻤﻮﻧﻪﺑﺮداري از ﺳﻴﮕﻨﺎل‪ ،‬ﻣﻲﺗﻮان ﺑﺎ اﺳﺘﻔﺎده از روشﻫﺎي ﻓﺸﺮدهﺳﺎزي ﺣﺠﻢ ﺑﺎﻻﻳﻲ از دادهﻫﺎي‬
‫درﻳﺎﻓﺖ ﺷﺪه را دور رﻳﺨﺖ ﺑﺪون آن ﻛﻪ ﺗﻐﻴﻴﺮ ﻣﺤﺴﻮﺳﻲ در ﺳﻴﮕﻨﺎل اﺣﺴﺎس ﺷﻮد‪ ،‬اﻳﻦ اﻳﺪه ﺑﻪ ذﻫﻦ ﻣﻲرﺳﺪ ﻛﻪ‬
‫ﺷﺎﻳﺪ ﺑﺘﻮان از ﻫﻤﺎن اﺑﺘﺪا ﺗﻨﻬﺎ اﻃﻼﻋﺎﺗﻲ از ﺳﻴﮕﻨﺎل را درﻳﺎﻓﺖ ﻛﺮد ﻛﻪ ﭘﺲ از ﻓﺸﺮدهﺳﺎزي ﺳﻴﮕﻨﺎل ﺑﺎﻗﻲ ﻣﻲﻣﺎﻧﺪ‪.‬‬
‫اﻳﻦ اﻳﺪه ﺑﺎﻋﺚ اﻳﺠﺎد ﻳﻚ روش ﺟﺪﻳﺪ ﻧﻤﻮﻧﻪﺑﺮداري از ﺳﻴﮕﻨﺎل ﺑﻪ ﻧﺎم ‪ Compressive Sensing‬ﺷﺪ ﻛﻪ در‬
‫اداﻣﻪ ﺑﻪ ﺗﺸﺮﻳﺢ آن ﻣﻲﭘﺮدازﻳﻢ‪.‬‬
‫‪ Compressed Sensing .2‬ﭼﻴﺴﺖ؟‬
‫‪ ،CS‬روﺷﻲ اﺳﺖ ﺑﺮاي ﻧﻤﻮﻧﻪ ﮔﻴﺮي از ﺳﻴﮕﻨﺎلﻫﺎي ‪ sparse‬ﺑﺎ ﻧﺮﺧﻲ ﺑﺴﻴﺎر ﻛﻤﺘﺮ از ﻧﺮخ ﻧﺎﻳﻜﻮﺋﻴﺴﺖ‪ ،‬ﺑﻪ ﻃﻮري ﻛﻪ‬
‫ﺑﺘﻮان ﺑﺎ اﺳﺘﻔﺎده از ﻧﻤﻮﻧﻪﻫﺎي ﺑﻪ دﺳﺖ آﻣﺪه از اﻳﻦ روش‪ ،‬ﺳﻴﮕﻨﺎل اﺻﻠﻲ را ﺑﺎ ﻛﻴﻔﻴﺘﻲ ﻣﻌﺎدل ﻛﻴﻔﻴﺖ ﺳﻴﮕﻨﺎلﻫﺎي‬
‫ﻓﺸﺮدهﺳﺎزي ﺷﺪه ﺑﺎ روشﻫﺎي ﻣﺘﺪاول ﺑﺎزﻳﺎﺑﻲ ﻛﺮد‪ .‬ﺑﺮاي درك ﺑﻬﺘﺮ اﻳﻦ ﺗﺌﻮري‪ ،‬اﺑﺘﺪا ﺑﺎﻳﺪ ﺑﺒﻴﻨﻴﻢ ﻛﻪ روشﻫﺎي‬
‫‪Shannon‬‬
‫‪Nyquist‬‬
‫‪3‬‬
‫‪1‬‬
‫‪2‬‬
‫ﻓﺸﺮدهﺳﺎزي ﭼﮕﻮﻧﻪ ﻋﻤﻞ ﻣﻲﻛﻨﻨﺪ ﻛﻪ ﻣﻲﺗﻮاﻧﻨﺪ ﺑﺪون اﻳﻦ ﻛﻪ در ﻛﻴﻔﻴﺖ ﺳﻴﮕﻨﺎل‪ ،‬ﺗﻐﻴﻴﺮ ﻣﺤﺴﻮﺳﻲ اﻳﺠﺎد ﺷﻮد‪،‬‬
‫دادهي ذﺧﻴﺮه ﺷﺪه آنﻫﺎ را ﺑﻪ اﻧﺪازه ﻗﺎﺑﻞ ﺗﻮﺟﻬﻲ ﻛﺎﻫﺶ دﻫﻨﺪ‪.‬‬
‫‪ sparsity .2.1‬و روشﻫﺎي ﻣﺘﺪاول ﻓﺸﺮدهﺳﺎزي‪:‬‬
‫ﺗﻤﺎﻣﻲ روشﻫﺎي ﻓﺸﺮدهﺳﺎزي ﺑﻪ اﻳﻦ ﺻﻮرت ﻋﻤﻞ ﻣﻲﻛﻨﻨﺪ ﻛﻪ ﺳﻴﮕﻨﺎل درﻳﺎﻓﺘﻲ ‪ x∈Rn‬را ﺑﻪ ﭘﺎﻳﻪاي از ‪Rn‬‬
‫ﻣﻲﺑﺮﻧﺪ ﻛﻪ در آن ﭘﺎﻳﻪ ﺳﻴﮕﻨﺎل ‪ Sparse‬ﺑﺎﺷﺪ‪ .‬ﻣﻨﻈﻮر از ‪ sparse‬ﺑﻮدن‪ ،‬اﻳﻦ اﺳﺖ ﻛﻪ ﺑﺨﺶ ﻋﻈﻴﻤﻲ از اﻧﺮژي‬
‫ﺳﻴﮕﻨﺎل در ﺗﻌﺪاد ﻛﻤﻲ از اﺑﻌﺎد آن ﭘﺎﻳﻪ ذﺧﻴﺮه ﺷﺪه ﺑﺎﺷﺪ‪ .‬ﺑﻪ ﻋﻨﻮان ﻣﺜﺎل در ﺷﻜﻞ ‪ ،1‬دو ﺳﻴﮕﻨﺎل ‪ sparse‬را‬
‫ﻣﺸﺎﻫﺪه ﻣﻲﻛﻨﻴﺪ‪ ،‬زﻳﺮا ﺗﻨﻬﺎ ﺗﻌﺪاد ﻛﻤﻲ از ﺿﺮاﺋﺐ آنﻫﺎ ﻏﻴﺮﺻﻔﺮﻧﺪ‪ .‬ﺑﻪ ﺳﻴﮕﻨﺎلﻫﺎي ﻣﺜﻞ ﺳﻴﮕﻨﺎل ﺳﻤﺖ ﭼﭗ ﻛﻪ‬
‫ﺗﻨﻬﺎ ‪ k‬ﻣﻮﻟﻔﻪ ﻏﻴﺮﺻﻔﺮ دارﻧﺪ وﺳﺎﻳﺮ ﻣﻮﻟﻔﻪﻫﺎي آنﻫﺎ دﻗﻴﻘﺎ ﺻﻔﺮ اﺳﺖ‪ ،‬ﺳﻴﮕﻨﺎل ‪ k-sparse‬ﻣﻲﮔﻮﻳﻴﻢ‪.‬‬
‫ﺷﻜﻞ ‪ .1‬ﺗﺼﻮﻳﺮ ﺳﻤﺖ راﺳﺖ‪ :‬ﻧﻤﺎﻳﺶ ﻳﻚ ﺳﻴﮕﻨﺎل ﻗﺎﺑﻞ ﻓﺸﺮدهﺳﺎزي ﺗﺼﻮﻳﺮ ﺳﻤﺖ ﭼﭗ‪ :‬ﻧﻤﺎﻳﺶ ﻳﻚ ﺳﻴﮕﻨﺎل ‪sparse-5‬‬
‫روشﻫﺎي ﻓﺸﺮدهﺳﺎزي‪ ،‬ﺳﻴﮕﻨﺎلﻫﺎي ‪ sparse‬را ﺑﻪ ﺳﻴﮕﻨﺎلﻫﺎي ‪ k-sparse‬ﺗﺒﺪﻳﻞ ﻣﻲﻛﻨﻨﺪ‪ .‬ﺑﻪ اﻳﻦ ﺻﻮرت ﻛﻪ‬
‫ﭘﺎﻳﻪاي ﭘﻴﺪا ﻣﻲﻛﻨﻨﺪ ﻛﻪ در آن اﻛﺜﺮ ﺳﻴﮕﻨﺎلﻫﺎي ﻣﻮرد ﻧﻈﺮ ﺗﻘﺮﻳﺒﺎ ‪ sparse‬ﺑﺎﺷﻨﺪ و ﺳﭙﺲ از ﻫﺮ ﺳﻴﮕﻨﺎﻟﻲ‪ ،‬ﺗﻨﻬﺎ ‪k‬‬
‫ﺗﺎ ﺑﺰرﮔﺘﺮﻳﻦ ﺿﺮﻳﺒﺶ را ﻧﮕﻪ ﻣﻲدارﻧﺪ‪ .‬ﺑﻪ ﻋﻨﻮان ﻣﺜﺎل در ﺷﻜﻞ ‪ ،2‬اﮔﺮ ﺳﻴﮕﻨﺎلﻫﺎي ﻣﻮرد ﻧﻈﺮ ﻣﺎ‪ ،‬داﻳﺮهﻫﺎي ﻧﺸﺎن‬
‫داده ﺷﺪه در ﺷﻜﻞ ﺑﺎﺷﻨﺪ و ﻣﺎ از ﭘﺎﻳﻪﻫﺎي دﻛﺎرﺗﻲ اﺳﺘﻔﺎده ﻛﻨﻴﻢ‪ ،‬ﻫﻴﭻ ﻛﺪام از ﺳﻴﮕﻨﺎلﻫﺎ ‪ sparse‬ﻧﺨﻮاﻫﻨﺪ ﺑﻮد‪،‬‬
‫زﻳﺮا ﺗﻤﺎﻣﻲ آنﻫﺎ در ﻫﺮ دو ﭘﺎﻳﻪ ﻣﻘﺎدﻳﺮ ﺗﻘﺮﻳﺒﺎ ﻣﺴﺎوي دارﻧﺪ‪ ،‬در ﺣﺎﻟﻲ ﻛﻪ اﮔﺮ ﺧﻄﻮط ‪ y=x‬و ‪ y=-x‬را ﺑﻪ ﻋﻨﻮان‬
‫ﭘﺎﻳﻪ در ﻧﻈﺮ ﺑﮕﻴﺮﻳﻢ‪ ،‬ﺗﻤﺎﻣﻲ ﺳﻴﮕﻨﺎلﻫﺎ در آن ﭘﺎﻳﻪ ﺟﺪﻳﺪ‪ sparse ،‬ﺧﻮاﻫﻨﺪ ﺷﺪ‪ ،‬زﻳﺮا ﻫﺮ ﻛﺪام از ﺳﻴﮕﻨﺎلﻫﺎ ﺗﻨﻬﺎ‬
‫در راﺳﺘﺎي ﻳﻜﻲ از اﻳﻦ ﻣﺤﻮرﻫﺎ ﻣﻘﺪار ﺑﺰرﮔﻲ دارد و در راﺳﺘﺎي ﻣﺤﻮري دﻳﮕﺮ ﻣﻘﺪار ﺧﻴﻠﻲ ﻛﻮﭼﻜﻲ دارد‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ‬
‫‪4‬‬
‫در اﻳﻦ ﭘﺎﻳﻪ ﺟﺪﻳﺪ‪ ،‬ﺑﻪ راﺣﺘﻲ ﻣﻲﺗﻮان ﺑﺎ ﻧﮕﻪ داﺷﺘﻦ ﻓﻘﻂ ﻳﻜﻲ از ﺿﺮاﺋﺐ‪ ،‬ﺳﻴﮕﻨﺎل را ﺑﺎ دﻗﺖ ﺧﻮﺑﻲ ﺑﺎزﻳﺎﺑﻲ ﻛﺮد و‬
‫ﺑﻨﺎﺑﺮاﻳﻦ ﻣﻲﺗﻮاﻧﻴﻢ ﺣﺪود ‪ %50‬ﻧﻴﺰ ﻓﺸﺮدهﺳﺎزي داﺷﺘﻪ ﺑﺎﺷﻴﻢ‪.‬‬
‫ﺷﻜﻞ ‪ .2‬ﺗﻐﻴﻴﺮ ﭘﺎﻳﻪ ﺑﻪ ﭘﺎﻳﻪاي ﻛﻪ در آن اﻛﺜﺮ ﺳﻴﮕﻨﺎلﻫﺎي ﻣﻮرد ﻧﻈﺮ ﺗﻨﻚ ﻫﺴﺘﻨﺪ‬
‫اﻣﺎ ﺳﻮاﻟﻲ ﻛﻪ ﭘﻴﺶ ﻣﻲآﻳﺪ اﻳﻦ اﺳﺖ ﻛﻪ آﻳﺎ ﺑﺮاي ﺳﻴﮕﻨﺎلﻫﺎي واﻗﻌﻲ ﻧﻴﺰ ﭼﻨﻴﻦ ﭘﺎﻳﻪاي وﺟﻮد دارد ﻛﻪ ﺳﻴﮕﻨﺎلﻫﺎي‬
‫ﻣﻮرد ﻧﻈﺮ در آن ﺗﺎ اﻳﻦ ﺣﺪ ﺗﻨﻚ ﺑﺎﺷﻨﺪ‪ .‬ﭘﺎﺳﺦ ﺑﻪ اﻳﻦ ﺳﻮال اﻳﻦ اﺳﺖ ﻛﻪ در ﻛﺎرﺑﺮدﻫﺎي ﻣﺨﺘﻠﻒ‪ ،‬ﭘﺎﻳﻪﻫﺎي ﻣﺨﺘﻠﻔﻲ‬
‫وﺟﻮد دارد ﻛﻪ ﺳﻴﮕﻨﺎلﻫﺎي آن ﺣﻮزه‪ ،‬اﻛﺜﺮا در آن ﭘﺎﻳﻪﻫﺎ ‪ sparse‬ﺑﺎﺷﻨﺪ‪ .‬ﺑﻪ ﻋﻨﻮان ﻣﺜﺎل ﻋﻜﺲﻫﺎي ﻃﺒﻴﻌﻲ‪ ،‬اﻛﺜﺮا‬
‫در ﭘﺎﻳﻪ ‪ ،wavelet‬ﻛﺎﻣﻼ ‪ sparse‬ﻫﺴﺘﻨﺪ‪ .‬ﺑﻪ ﻋﻨﻮان ﻣﺜﺎل دو ﻋﻜﺲ زﻳﺮ‪ ،‬ﻧﺸﺎن دﻫﻨﺪه ﻳﻚ ﺗﺼﻮﻳﺮ ﻫﺴﺘﻨﺪ ﻛﻪ‬
‫ﻋﻜﺲ ﺳﻤﺖ ﭼﭗ ﺗﺼﻮﻳﺮ اﺻﻠﻲ اﺳﺖ و ﻋﻜﺲ ﺳﻤﺖ راﺳﺖ‪ ،‬ﺑﺎ اﺳﺘﻔﺎده از ﺗﻨﻬﺎ ‪ %2.5‬از ﺑﺰرﮔﺘﺮﻳﻦ ﺿﺮاﻳﺐ‬
‫‪ wavelet‬ﻋﻜﺲ اﺻﻠﻲ ﺑﻪ دﺳﺖ آﻣﺪه اﺳﺖ‪ .‬ﻫﻤﺎن ﻃﻮر ﻛﻪ ﻣﻲﺑﻴﻨﻴﺪ‪ ،‬ﺑﻴﻦ اﻳﻦ دو ﻋﻜﺲ ﺗﻔﺎوت ﻣﺤﺴﻮﺳﻲ دﻳﺪه‬
‫ﻧﻤﻲﺷﻮد و اﻳﻦ ﻧﺸﺎن دﻫﻨﺪه اﻳﻦ اﺳﺖ ﻛﻪ ﺑﻴﺸﺘﺮ اﻧﺮژي اﻳﻦ ﻋﻜﺲ در ‪ %2.5‬از ﭘﺎﻳﻪﻫﺎي ‪ wavelet‬ﻣﺘﻤﺮﻛﺰ ﺷﺪه‬
‫اﺳﺖ ﻳﺎ ﺑﻪ ﻋﺒﺎرت دﻳﮕﺮ‪ ،‬اﻳﻦ ﻋﻜﺲ در ﺣﻮزه ‪ ،wavelet‬ﺑﺴﻴﺎر ‪ sparse‬اﺳﺖ‪.‬‬
‫‪5‬‬
‫ﺷﻜﻞ ‪ .3‬ﺗﺼﻮﻳﺮ ﺳﻤﺖ ﭼﭗ‪ :‬ﻋﻜﺲ ﺑﺪون ﻓﺸﺮدهﺳﺎزي ﺗﺼﻮﻳﺮ ﺳﻤﺖ راﺳﺖ‪ :‬ﻋﻜﺲ ﻓﺸﺮدهﺳﺎزي ﺷﺪه ﺑﺎ ﺿﺮﻳﺐ ‪ 1‬ﺑﻪ ‪40‬‬
‫‪ .2.2‬ﺗﻌﻤﻴﻢ ﻣﻔﻬﻮم ﻧﻤﻮﻧﻪﺑﺮداري‬
‫ﻗﺒﻞ از ﺑﺮرﺳﻲ اﻳﻦ ﻛﻪ ‪ CS‬ﭼﮕﻮﻧﻪ ﻋﻤﻞ ﻣﻲﻛﻨﺪ‪ ،‬ﺑﺎﻳﺪ ﺷﻬﻮد ﺧﻮد را از ﻧﻤﻮﻧﻪ ﺑﺮداري از ﺳﻴﮕﻨﺎل ﮔﺴﺘﺮش دﻫﻴﻢ‪.‬‬
‫ﺷﻬﻮد اوﻟﻴﻪ ﻣﺎ از ﻧﻤﻮﻧﻪ ﺑﺮداري‪ ،‬اﻳﻦ اﺳﺖ ﻛﻪ ﻣﻘﺪار ﺳﻴﮕﻨﺎل را در ﻟﺤﻈﺎت ﮔﻮﻧﺎﮔﻮن ﺑﻪ دﺳﺖ آورﻳﻢ‪ ،‬ﻳﺎ در ﻣﻮرد ﻳﻚ‬
‫ﻋﻜﺲ‪ ،‬ﻧﻤﻮﻧﻪ ﺑﺮداري را ﻓﻘﻂ ﭘﻴﺪا ﻛﺮدن ﻣﻘﺎدﻳﺮ ﭘﻴﻜﺴﻞ ﻫﺎي ﻋﻜﺲ ﻣﻲداﻧﻴﻢ‪ .‬اﮔﺮ دﻗﺖ ﻛﻨﻴﻢ‪ ،‬ﻣﺘﻮﺟﻪ ﻣﻲﺷﻮﻳﻢ ﻛﻪ‬
‫اﻳﻦ ﻛﺎر ﻣﻌﺎدل اﺳﺖ ﺑﺎ ﻳﺎﻓﺘﻦ ﺿﺮب داﺧﻠﻲ ﺳﻴﮕﻨﺎل ﻋﻜﺲ‪ ،x ،‬ﺑﺎ ﺗﺎﺑﻊ ‪ w‬ﻛﻪ در ﻫﻤﻪ ﺟﺎ ﺻﻔﺮ اﺳﺖ ﻣﮕﺮ در آن‬
‫ﭘﻴﻜﺴﻞ ﻣﻮرد ﻧﻈﺮ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ﻣﻲ ﺗﻮاﻧﻴﻢ ﺑﻪ ﺟﺎي ﻳﺎﻓﺘﻦ ﻣﻘﺪار ﺳﻴﮕﻨﺎل در ﻳﻚ ﻧﻘﻄﻪ ﻣﺸﺨﺺ از ﻋﻜﺲ‪ ،‬ﺿﺮب داﺧﻠﻲ‬
‫آن را ﺑﺎ ﻳﻚ ﺗﺎﺑﻊ دﻟﺨﻮاه اﻧﺪازهﮔﻴﺮي ﻛﻨﻴﻢ ﻛﻪ در اﻳﻦ ﺻﻮرت ﻧﻤﻮﻧﻪ ﻣﺎ ﺑﻪ ﺻﻮرت زﻳﺮ در ﻣﻲآﻳﺪ‪:‬‬
‫ ∅ ‪ ,‬‬
‫ﺑﻨﺎﺑﺮاﻳﻦ در ‪ CS‬ﺑﻪ دﻧﺒﺎل ﻳﻚ ﻣﺎﺗﺮﻳﺲ ‪(Am×n (m<<n‬ﻫﺴﺘﻴﻢ ﻛﻪ ﺑﺘﻮان از ‪ y‬ﺑﻪ دﺳﺖ آﻣﺪه ﻃﺒﻖ راﺑﻄﻪ‬
‫‪y=Ax‬‬
‫‪ x‬را ﺑﺎ ﻛﻴﻔﻴﺘﻲ ﺑﺮاﺑﺮ ﺑﺎ ‪ k-sparse‬ﺷﺪه‪ ،x ،‬ﺑﺎزﻳﺎﺑﻲ ﻛﻨﻴﻢ‪ .‬ﻳﻚ ﺳﻮال ﻛﻪ ﻣﻤﻜﻦ اﺳﺖ در ذﻫﻦ ﭘﻴﺶ آﻳﺪ اﻳﻦ اﺳﺖ‬
‫ﻛﻪ ﺳﺘﻮنﻫﺎي ‪ A‬را ﻫﻤﺎن ﭘﺎﻳﻪﻫﺎﻳﻲ در ﻧﻈﺮ ﺑﮕﻴﺮﻳﻢ ﻛﻪ ﺳﻴﮕﻨﺎل ﻣﺎ ﺑﻴﺸﺘﺮﻳﻦ اﻧﺮژي را دارد‪ .‬اﻣﺎ ﺑﺪﻳﻬﻲ اﺳﺖ ﻛﻪ اﻳﻦ‬
‫ﭘﺎﻳﻪﻫﺎ ﺑﻪ ازاي ﺳﻴﮕﻨﺎلﻫﺎي ﻣﺨﺘﻠﻒ‪ ،‬ﻣﺘﻔﺎوتاﻧﺪ و ﺗﺎ وﻗﺘﻲ ﻛﻪ ﺧﻮد ﺳﻴﮕﻨﺎل را ﻧﺪاﺷﺘﻪ ﺑﺎﺷﻴﻢ‪ ،‬ﻧﻤﻲﺗﻮاﻧﻴﻢ ﺑﻔﻬﻤﻴﻢ‬
‫ﻛﺪام ﺿﺮاﺋﺐ در آن ﭘﺎﻳﻪﻫﺎي ﺗﻌﺮﻳﻒ ﺷﺪه ﻣﺎ ﺑﻴﺸﺘﺮﻳﻦ ﻣﻘﺪار را دارﻧﺪ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ﺳﻪ ﭼﺎﻟﺶ ﺑﺰرگ ﺑﻪ وﺟﻮد ﻣﻲآﻳﺪ‪:‬‬
‫‪ .1‬ﻣﻘﺪار ‪ m‬را ﻛﻪ ﺑﻪ ‪ k‬و ‪ n‬واﺑﺴﺘﻪ اﺳﺖ‪ ،‬ﭼﮕﻮﻧﻪ ﺑﺎﻳﺪ ﺗﻌﻴﻴﻦ ﻛﻨﻴﻢ‪.‬‬
‫‪ .2‬ﭼﻪ اﻃﻼﻋﺎﺗﻲ از ﺳﻴﮕﻨﺎل را درﻳﺎﻓﺖ ﻛﻨﻴﻢ ﻛﻪ ﺑﺘﻮاﻧﻴﻢ ﺑﺎ اﺳﺘﻔﺎده از آنﻫﺎ‪ ،‬ﺳﻴﮕﻨﺎل را ﺑﺎ ﻛﻴﻔﻴﺘﻲ ﺑﺎﻻ ﺑﺎزﻳﺎﺑﻲ‬
‫ﻛﻨﻴﻢ؛ ﻳﺎ ﺑﻪ ﻋﺒﺎرﺗﻲ دﻳﮕﺮ‪ ،‬ﻣﺎﺗﺮﻳﺲ ﻧﻤﻮﻧﻪﮔﻴﺮي ‪ A‬را ﺑﺎﻳﺪ ﭼﮕﻮﻧﻪ ﻃﺮاﺣﻲ ﻛﻨﻴﻢ‪.‬‬
‫‪6‬‬
‫‪ .3‬ﭼﮕﻮﻧﻪ از روي ﻧﻤﻮﻧﻪﻫﺎي اﻧﺪﻛﻲ ﻛﻪ ﺑﺎ روش ‪ ،CS‬از ﺳﻴﮕﻨﺎل ﺑﻪ دﺳﺖ آﻣﺪه اﺳﺖ‪ ،‬آن را ﺑﺎزﻳﺎﺑﻲ ﻛﻨﻴﻢ‪.‬‬
‫در اداﻣﻪ ﺑﻪ اﻳﻦ ﺳﻪ ﻣﻮﺿﻮع ﻣﻲ ﭘﺮدازﻳﻢ‪.‬‬
‫‪ .3‬آﻳﺎ ‪ ،CS‬ﻧﻈﺮﻳﻪ ﺷﺎﻧﻮن را ﻧﻘﺾ ﻣﻲﻛﻨﺪ؟‬
‫آن ﭼﻪ ﻛﻪ ﺗﺎ ﺑﻪ ﺣﺎل در ﻣﻮرد ‪ CS‬ﮔﻔﺘﻪ اﻳﻢ‪ ،‬اﻳﻦ اﺳﺖ ﻛﻪ ﻣﻲﺧﻮاﻫﻴﻢ از روي ﻣﻌﺎدﻟﻪ‪:‬‬
‫‪ym×1=Am×n xn×1‬‬
‫ﻛﻪ در آن ≪ ‪ ،‬ﺳﻴﮕﻨﺎل را ﺑﺎزﻳﺎﺑﻲ ﻛﻨﻴﻢ‪ .‬ﻫﻤﺎنﻃﻮر ﻛﻪ ﻣﻲداﻧﻴﻢ‪ ،‬ﻳﻚ دﺳﺘﮕﺎه ﻣﻌﺎدﻻت ﻛﻪ ﺗﻌﺪاد ﻣﺠﻬﻮﻻﺗﺶ‬
‫ﺑﻴﺶ از ﺗﻌﺪاد ﻣﻌﺎدﻻﺗﺶ ﺑﺎﺷﺪ و ﻳﻚ ﺟﻮاب داﺷﺘﻪ ﺑﺎﺷﺪ‪ ،‬ﺣﺘﻤﺎ ﺑﻲﻧﻬﺎﻳﺖ ﺟﻮاب دارد‪ .‬از آن ﺟﺎ ﻛﻪ ﺣﺪاﻗﻞ ﺳﻴﮕﻨﺎل‬
‫اﺻﻠﻲ ﻛﻪ از آن ﻧﻤﻮﻧﻪﺑﺮداري ﻛﺮدهاﻳﻢ‪ ،‬در ﻣﻌﺎدﻟﻪ ﺑﺎﻻ ﺻﺪق ﻣﻲﻛﻨﺪ‪ ،‬ﺑﻨﺎﺑﺮاﻳﻦ ﻣﻌﺎدﻟﻪ ﺑﺎﻻ‪ ،‬ﺑﻴﻨﻬﺎﻳﺖ ﺟﻮاب دارد و ﺑﺎ‬
‫داﺷﺘﻦ ﺗﻨﻬﺎ ﻫﻤﻴﻦ اﻃﻼﻋﺎت‪ ،‬ﻣﺎ ﻧﻤﻲﺗﻮاﻧﻴﻢ ‪ x‬را ﺑﺎزﻳﺎﺑﻲ ﻛﻨﻴﻢ ﻛﻪ اﻳﻦ ﺷﺎﻫﺪي ﺑﺮ ﻫﻤﺎن ﻧﻈﺮﻳﻪ ﺷﺎﻧﻮن اﺳﺖ ﻛﻪ ﺑﻴﺎن‬
‫ﻣﻲﻛﻨﺪ ﻛﻪ اﮔﺮ ﻧﺮخ ﻧﻤﻮﻧﻪﺑﺮداري ﻣﺎ از ﻳﻚ ﺣﺪي ﻛﻤﺘﺮ ﺑﺎﺷﺪ‪ ،‬ﺳﻴﮕﻨﺎل را ﻧﻤﻲﺗﻮاﻧﻴﻢ ﺑﻪ ﻃﻮر ﻳﻜﺘﺎ ﺑﺎزﻳﺎﺑﻲ ﻛﻨﻴﻢ‪ ،‬ﻳﺎ‬
‫ﺑﻪ ﻋﺒﺎرﺗﻲ ﺑﻴﻨﻬﺎﻳﺖ ﺳﻴﮕﻨﺎل وﺟﻮد دارد ﻛﻪ ﻣﻲﺗﻮاﻧﺪ در ﻣﻌﺎدﻟﻪ ﺑﺎﻻ ﺻﺪق ﻛﻨﺪ‪ .‬اﻣﺎ ﺗﻔﺎوت دﻳﺪﮔﺎه ‪ CS‬و ﺷﺎﻧﻮن در‬
‫اﻳﻦ اﺳﺖ ﻛﻪ ﺷﺎﻧﻮن‪ ،‬ﻳﻚ روش ﻧﻤﻮﻧﻪﺑﺮداري ﺑﺮاي ﻫﻤﻪ ﺳﻴﮕﻨﺎلﻫﺎي ﺑﺎﻧﺪ ﻣﺤﺪود اراﺋﻪ ﻛﺮد در ﺣﺎﻟﻲ ﻛﻪ ﻣﺎ ﻓﻘﻂ‬
‫روي ﺳﻴﮕﻨﺎلﻫﺎي ‪ sparse‬ﺗﻤﺮﻛﺰ دارﻳﻢ‪ .‬ﺑﻪ ﻋﺒﺎرﺗﻲ دﻳﮕﺮ‪ Shannon ،‬ﻓﺮض ﻣﻲﻛﺮد ﻛﻪ اﺣﺘﻤﺎل اﻳﻦ ﻛﻪ اﻳﻦ ﻛﻪ‬
‫ﺳﻴﮕﻨﺎل ﻧﻤﻮﻧﻪ ﺑﺮداري ﺷﺪه‪ ،‬ﻫﺮ ﻛﺪام از ﺳﻴﮕﻨﺎلﻫﺎي ﺑﺎﻧﺪ ﻣﺤﺪود ﺑﺎﺷﻨﺪ‪ ،‬ﺑﺎ ﻳﻜﺪﻳﮕﺮ ﺑﺮاﺑﺮ اﺳﺖ‪ ،‬در ﺣﺎﻟﻲ ﻛﻪ ﻣﺎ‬
‫ﻣﻲداﻧﻴﻢ ﻛﻪ ﺳﻴﮕﻨﺎلﻫﺎي ﻣﻮرد ﻧﻈﺮ ﻣﺎ اﻛﺜﺮا ‪ sparse‬ﻫﺴﺘﻨﺪ ﻳﺎ ﺑﻪ ﻋﺒﺎرت دﻳﮕﺮ از ﺑﻴﻦ ﺑﻲﻧﻬﺎﻳﺖ ﺟﻮاﺑﻲ ﻛﻪ ﺑﺮاي‬
‫ﻣﻌﺎدﻟﻪ ﺑﺎﻻ وﺟﻮد دارد‪ ،‬ﺑﻪ اﺣﺘﻤﺎل زﻳﺎد‪ ،‬ﺳﻴﮕﻨﺎل اوﻟﻴﻪ‪ ،‬ﻳﻜﻲ از ‪sparse‬ﺗﺮﻳﻦ ﺳﻴﮕﻨﺎلﻫﺎي ﻋﻀﻮ اﻳﻦ ﻣﺠﻤﻮﻋﻪ ﺑﻮده‬
‫اﺳﺖ ﻳﺎ ﺑﻪ ﻋﺒﺎرت دﻳﮕﺮ ﺷﺒﺎﻫﺖ ﺧﻴﻠﻲ زﻳﺎدي ﺑﻪ ‪sparse‬ﺗﺮﻳﻦ ﺟﻮاب اﻳﻦ ﻣﻌﺎدﻟﻪ دارد‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮاي ﺑﺎزﻳﺎﺑﻲ‬
‫ﺳﻴﮕﻨﺎل اوﻟﻴﻪ‪ ،‬ﺑﺎﻳﺪ ﺑﻪ ﮔﻮﻧﻪاي اﻳﻦ ﭘﻴﺶ ﻓﺮض ‪ sparsity‬را در ﺑﻪ دﺳﺖ آوردن ﺟﻮاب دﺧﻴﻞ ﻛﻨﻴﻢ‪ .‬ﻳﻚ راه ﺳﺎده‬
‫ﺑﺮاي اﻧﺠﺎم اﻳﻦ ﻛﺎر ﺗﻌﺮﻳﻒ ﺗﺎﺑﻊ ﻫﺪف ‪ (J(x‬اﺳﺖ ﻛﻪ ‪ (J(x‬ﺗﻤﺎﻳﻞ ﻣﺎ ﺑﺮاي اﻧﺘﺨﺎب ‪ x‬را ﺑﻴﻦ ﻣﺠﻤﻮﻋﻪ ﺟﻮابﻫﺎ‬
‫ﻣﺸﺨﺺ ﻣﻲﻛﻨﺪ‪ ،‬ﺑﻨﺎﺑﺮاﻳﻦ ﻣﺴﺌﻠﻪ ﺑﺎزﻳﺎﺑﻲ ﺳﻴﮕﻨﺎل ‪ x‬ﺑﻪ ﻳﻚ ﻣﺴﺌﻠﻪ ﺑﻬﻴﻨﻪ ﺳﺎزي ﺑﻪ ﺻﻮرت زﻳﺮ ﺗﺒﺪﻳﻞ ﻣﻲﺷﻮد‪:‬‬
‫ ‪ : min‬‬
‫‪x‬‬
‫ﻛﻪ در ﻣﻮرد ﺗﻮاﺑﻊ ﻣﺨﺘﻠﻒ ‪ J‬در ﻗﺴﻤﺖ ﺑﺎزﻳﺎﺑﻲ ﺳﻴﮕﻨﺎل ﻣﻄﺎﻟﺒﻲ را ﺑﻴﺎن ﻣﻲﻛﻨﻴﻢ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ از آن ﺟﻬﺖ در روش‬
‫‪ CS‬ﻣﻲﺗﻮاﻧﻴﻢ ﺑﺎ ﻧﻤﻮﻧﻪﻫﺎي ﺧﻴﻠﻲ ﻛﻤﺘﺮ از ﻧﺮخ ‪ Nyquist‬ﻧﻤﻮﻧﻪﺑﺮداري ﻛﻨﻴﻢ ﻛﻪ ﻓﺮض ﻣﻲﻛﻨﻴﻢ ﻛﻪ ﺳﻴﮕﻨﺎل‬
‫ﻧﻤﻮﻧﻪﺑﺮداري ﺷﺪه ﺑﺎ اﺣﺘﻤﺎل ﺑﺎﻻﻳﻲ ﻳﻚ ﺳﻴﮕﻨﺎل ‪ sparse‬اﺳﺖ ﻳﺎ ﻳﻚ ﺳﻴﮕﻨﺎل ‪ sparse‬وﺟﻮد دارد ﻛﻪ‬
‫‪7‬‬
‫ﺗﺨﻤﻴﻦ ﺑﺴﻴﺎر ﺧﻮﺑﻲ از آن ﺳﻴﮕﻨﺎل اﺳﺖ‪ .‬از ﻃﺮف دﻳﮕﺮ در ‪ ،CS‬ﻫﺪف‪ ،‬ﺑﺎزﻳﺎﺑﻲ ﺑﺪون ﺧﻄﺎي ﺳﻴﮕﻨﺎل اوﻟﻴﻪ ﻧﻴﺴﺖ‪،‬‬
‫ﺑﻠﻜﻪ ﻫﺪف اﻳﻦ اﺳﺖ ﻛﻪ ﺧﻄﺎي ﺑﺎزﻳﺎﺑﻲ از ﻧﻤﻮﻧﻪﻫﺎي ﮔﺮﻓﺘﻪ ﺷﺪه از اﻳﻦ روش‪ ،‬ﺗﻘﺮﻳﺒﺎ ﺑﻪ اﻧﺪازه ﺧﻄﺎي روشﻫﺎي‬
‫ﻓﺸﺮدهﺳﺎزي ﺑﺎﺷﺪ‪.‬‬
‫در واﻗﻊ‪ ،‬در ‪ ،Compressed Sensing‬ﻣﺎ ﺑﺎ ﺗﻜﻴﻪ ﺑﺮ اﻳﻦ ﻛﻪ ﻣﻲداﻧﻴﻢ اﺣﺘﻤﺎل وﻗﻮع ﺳﻴﮕﻨﺎلﻫﺎي ‪،sparse‬‬
‫ﺧﻴﻠﻲ ﺑﻴﺸﺘﺮ از ﺳﻴﮕﻨﺎلﻫﺎي دﻳﮕﺮ در ﻓﻀﺎي ﺑﺮداري اﺳﺖ‪ ،‬ﻓﺮآﻳﻨﺪ ﻧﻤﻮﻧﻪ ﺑﺮداري و ﺑﺎزﻳﺎﺑﻲ ﺳﻴﮕﻨﺎل را ﻃﺮاﺣﻲ‬
‫ﻣﻲﻛﻨﻴﻢ‪ .‬ﺣﺎل وارد ﻛﺮدن اﻳﻦ داﻧﺶ ﭘﻴﺸﻴﻦ‪ ،‬در ﻓﺮآﻳﻨﺪ ﻧﻤﻮﻧﻪﺑﺮداري و ﺑﺎزﻳﺎﺑﻲ‪ ،‬ﺑﻪ روشﻫﺎي ﻣﺨﺘﻠﻔﻲ اﻧﺠﺎم‬
‫ﻣﻲﺷﻮد‪ .‬ﺑﻪ ﻋﻨﻮان ﻣﺜﺎل ﻣﺎ ﻣﻲﺗﻮاﻧﻴﻢ اﻳﻦ داﻧﺶ ﭘﻴﺸﻴﻦ را در ﻗﺎﻟﺐ ﻳﻚ اﺣﺘﻤﺎل ﭘﻴﺸﻴﻦ‪ ،‬در ﻓﺮآﻳﻨﺪ ﻧﻤﻮﻧﻪ ﺑﺮداري‬
‫در ﻧﻈﺮ ﺑﮕﻴﺮﻳﻢ و ﻳﺎ اﻳﻦ ﻛﻪ ﭘﺲ از ﻧﻤﻮﻧﻪ ﺑﺮداري از ﺳﻴﮕﻨﺎل‪ ،‬ﺑﺮاي ﺑﺎزﻳﺎﺑﻲ ﺳﻴﮕﻨﺎل از روي ﻧﻤﻮﻧﻪﻫﺎي ﮔﺮﻓﺘﻪ ﺷﺪه‪،‬‬
‫ﻣﺴﺌﻠﻪ را ﺑﻪ ﻳﻚ ﻣﺴﺌﻠﻪ ﺑﻬﻴﻨﻪ ﺳﺎزي ﺗﺒﺪﻳﻞ ﻛﻨﻴﻢ ﻛﻪ در آن ﻣﺴﺌﻠﻪ‪ ،‬ﺑﺎ اﺳﺘﻔﺎده از ﻳﻚ ﺗﺎﺑﻊ ﻫﺪف ‪ ،‬اﻳﻦ ﭘﻴﺶ ﻓﺮض‬
‫‪ sparsity‬را در ﻣﺴﺌﻠﻪ وارد ﻛﻨﻴﻢ‪ .‬در اﻳﻦ ﻧﻮﺷﺘﻪ ﻓﻘﻂ ﺑﻪ روش دوم ﻳﻌﻨﻲ ﺑﺎزﺳﺎزي ﺑﻪ ﻛﻤﻚ ﺣﻞ ﻣﺴﺎﺋﻞ‬
‫ﺑﻬﻴﻨﻪﺳﺎزي ﻣﻲﭘﺮدازﻳﻢ‪.‬‬
‫‪ .4‬ﻃﺮاﺣﻲ ﻣﺎﺗﺮﻳﺲ ﻧﻤﻮﻧﻪ ﺑﺮداري‪:‬‬
‫ﻓﺮض ﻛﻨﻴﺪ ﻛﻪ ﺳﻴﮕﻨﺎل ﻣﺎ ﻳﻚ ﺑﺮداري در ‪ Rn‬ﺑﺎﺷﺪ و ﻣﺎ ﺑﺨﻮاﻫﻴﻢ ≪ ﻧﻤﻮﻧﻪ از ﺳﻴﮕﻨﺎل ﺗﻬﻴﻪ ﻛﻨﻴﻢ‪ ،‬ﺑﻪﻃﻮري‬
‫ﻛﻪ ﺑﺘﻮاﻧﻴﻢ ﺑﺎ اﺳﺘﻔﺎده از آنﻫﺎ و ﺑﺎ ﻓﺮض ‪ ،sparsity‬ﺳﻴﮕﻨﺎل را ﺑﺎ دﻗﺖ ﺑﺎﻻﻳﻲ ﺑﺎزﻳﺎﺑﻲ ﻛﻨﻴﻢ‪ .‬ﺑﺮاي ﻧﻤﻮﻧﻪﺑﺮداري از‬
‫ﺳﻴﮕﻨﺎل‪ ،‬ﻣﺎ ﺿﺮب داﺧﻠﻲ ﺳﻴﮕﻨﺎل را ﺑﺎ ﺗﻌﺪادي ﺑﺮدار ‪ ai‬ﻣﺤﺎﺳﺒﻪ ﻣﻲﻛﻨﻴﻢ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ﻣﻲﺗﻮاﻧﻴﻢ ﻧﻤﻮﻧﻪﻫﺎ را ﺑﻪ ﺻﻮرت‬
‫زﻳﺮ ﻧﻤﺎﻳﺶ دﻫﻴﻢ‪:‬‬
‫ ‬
‫ﻛﻪ در آن ‪ A‬ﻣﺎﺗﺮﻳﺴﻲ ! ﺑﺎﺷﺪ ﻛﻪ ﺳﻄﺮ ‪i‬ام آن ‪ ai‬اﺳﺖ‪ .‬ﻣﺎﺗﺮﻳﺲ ﻧﻤﻮﻧﻪ ﺑﺮداري ‪ A‬ﺑﺎﻳﺪ ﺑﻪ ﮔﻮﻧﻪاي ﺑﺎﺷﺪ ﻛﻪ ﺑﺎ‬
‫اﺳﺘﻔﺎده از ‪ ،y‬ﺑﺘﻮاﻧﻴﻢ ﻫﺮ ﺳﻴﮕﻨﺎل ‪sparse‬ي را ﺑﻪ ﻃﻮر ﻳﻜﺘﺎ ﺑﺎزﻳﺎﺑﻲ ﻛﻨﻴﻢ‪ .‬در اﺑﺘﺪا ﻓﺮض ﻛﻨﻴﺪ ﻛﻪ ﺗﻤﺎﻣﻲ‬
‫ﺳﻴﮕﻨﺎلﻫﺎﻳﻲ ﻛﻪ ﻧﻤﻮﻧﻪ ﺑﺮداري ﻣﻲﻛﻨﻴﻢ‪ k-sparse ،‬ﺑﺎﺷﻨﺪ‪ ،‬ﺑﻪ اﻳﻦ ﻣﻌﻨﺎ ﻛﻪ ﺣﺪاﻛﺜﺮ ‪ k‬ﺗﺎ از ‪ n‬ﻣﻮﻟﻔﻪ آنﻫﺎ ﻏﻴﺮ‬
‫ﺻﻔﺮ اﺳﺖ‪ .‬ﺑﺮاي اﻳﻦ ﻛﻪ ﺑﺘﻮاﻧﻴﻢ ﻫﺮ ﺳﻴﮕﻨﺎل ‪k-sparse‬ي را ﺑﺎ اﺳﺘﻔﺎده از ‪ y‬ﻣﺘﻨﺎﻇﺮ آن ﺑﺎزﻳﺎﺑﻲ ﻛﻨﻴﻢ‪ ،‬ﺑﺪﻳﻬﻲ اﺳﺖ‬
‫ﻛﻪ ﺑﺎﻳﺪ ﺷﺮط زﻳﺮ ﺑﺎﻳﺪ ﺑﺮاي ‪ A‬ﺑﺮﻗﺮار ﺑﺎﺷﺪ‪.‬‬
‫ﺷﺮط ‪ .1‬ﻫﻴﭻ ﺳﻴﮕﻨﺎل ‪k-sparse2‬ي ﻏﻴﺮ از ﺻﻔﺮ‪ ،‬ﻧﺒﺎﻳﺪ در ‪ (N(A‬ﺑﺎﺷﺪ ﻛﻪ ‪ (N(A‬ﺑﻪ ﺻﻮرت زﻳﺮ ﺗﻌﺮﻳﻒ ﻣﻲﺷﻮد‪:‬‬
‫‪8‬‬
‫اﺛﺒﺎت ﻻزم ﺑﻮدن اﻳﻦ ﺷﺮط ﻧﻴﺰ واﺿﺢ اﺳﺖ‪ .‬در ﺻﻮرﺗﻲ ﻛﻪ ﻳﻚ ﺳﻴﮕﻨﺎل ‪ k-sparse2‬ﻣﺎﻧﻨﺪ ‪ ،X # 0‬ﻋﻀﻮ ‪(N(A‬‬
‫ﺑﺎﺷﺪ‪ ،‬در اﻳﻦ ﺻﻮرت ﺣﺘﻤﺎ دو ﺳﻴﮕﻨﺎل ‪ x1‬و ‪ x2‬ي ﭘﻴﺪا ﻣﻲﺷﻮﻧﺪ ﻛﻪ ‪ k-sparse‬ﺑﺎﺷﻨﺪ و ‪ x=x1-x2‬ﺑﺎﺷﺪ‪ .‬در اﻳﻦ‬
‫ﺻﻮرت ‪ Ax1=Ax2‬ﺧﻮاﻫﺪ ﺷﺪ ﻛﻪ اﻳﻦ ﺑﻪ اﻳﻦ ﻣﻌﻨﺎﺳﺖ ﻛﻪ ﺑﺎ اﺳﺘﻔﺎده از ‪ ،y‬ﻧﻤﻲﺗﻮاﻧﻴﻢ ﺳﻴﮕﻨﺎل را ﺑﻪ ﻃﻮرت ﻳﻜﺘﺎ‬
‫ﺑﺎزﻳﺎﺑﻲ ﻛﻨﻴﻢ‪ .‬ﻛﺎﻓﻲ ﺑﻮدن اﻳﻦ ﺷﺮط ﻧﻴﺰ ﺑﻪ ﻃﺮﻳﻖ ﻣﺸﺎﺑﻪ اﺛﺒﺎت ﻣﻲﺷﻮد‪.‬‬
‫روشﻫﺎي ﻣﺨﺘﻠﻔﻲ ﺑﺮاي ﺑﻴﺎن اﻳﻦ ﺷﺮط وﺟﻮد دارد ﻛﻪ در اداﻣﻪ ﺑﻪ ﻳﻜﻲ از آنﻫﺎ ﻣﻲﭘﺮدازﻳﻢ‪.‬‬
‫ﺗﻌﺮﻳﻒ‪ spark :‬ﻣﺎﺗﺮﻳﺲ ‪ ،A‬ﻛﻤﺘﺮﻳﻦ ﺗﻌﺪاد از ﺳﺘﻮنﻫﺎي ﻣﺎﺗﺮﻳﺲ ‪ A‬اﺳﺖ ﻛﻪ واﺑﺴﺘﻪ ﺧﻄﻲ ﺑﺎﺷﻨﺪ‪.‬‬
‫ﻗﻀﻴﻪ‪ :‬ﺑﻪ ازاي ﻫﺮ ﺑﺮدار &‪ ، ∈ %‬ﺣﺪاﻛﺜﺮ ﻳﻚ ﺑﺮدار ‪ ،X ،k-sparse‬وﺟﻮد دارد ﻛﻪ ‪ ،y=AX‬اﮔﺮ و ﺗﻨﻬﺎ اﮔﺮ‬
‫‪ spark(A)>2k‬ﺑﺎﺷﺪ‪.‬‬
‫اﻳﻦ ﻗﻀﻴﻪ ﻣﻌﺎدل ﻗﻀﻴﻪ ﻗﺒﻞ اﺳﺖ و اﺛﺒﺎت آن ﻧﻴﺰ ﻣﺸﺎﺑﻪ اﺳﺖ‪ ،‬ﺑﻨﺎﺑﺮاﻳﻦ از اﺛﺒﺎت آن ﺻﺮف ﻧﻈﺮ ﻣﻲﻛﻨﻴﻢ‪ .‬ﻣﻲداﻧﻴﻢ‬
‫ﻛﻪ ﻫﺮ ﻣﺎﺗﺮﻳﺲ‬
‫!‬
‫ﻛﻪ در آن ‪spark ،‬ش در ﺑﺎزه ]‪ [m+1,2‬ﻗﺮار ﻣﻲﮔﻴﺮد‪ ،‬ﺑﻨﺎﺑﺮاﻳﻦ‪ ،‬ﻗﻀﻴﻪ ﻗﺒﻞ در‬
‫واﻗﻊ ﻳﻚ ﺑﺎﻧﺪ ﭘﺎﻳﻴﻨﻲ روي ‪ m‬ﻣﻲدﻫﺪ ﻛﻪ ﺑﺮاي ﺑﺎزﻳﺎﺑﻲ ﻳﻜﺘﺎي ﺳﻴﮕﻨﺎلﻫﺎي ‪ ،k-sparse‬ﺑﺎﻳﺪ ‪ m>2k‬ﺑﺎﺷﺪ‪.‬‬
‫در ﺟﻬﺎن واﻗﻌﻲ ﺳﻴﮕﻨﺎﻟﻬﺎﻳﻲ ﻛﻪ ﻣﺎ ﺑﺎ آنﻫﺎ ﺳﺮ و ﻛﺎر دارﻳﻢ‪ k-sparse ،‬ﻧﻴﺴﺘﻨﺪ‪ ،‬ﺑﻠﻜﻪ ‪ k‬ﺗﺎ از ﻣﻮﻟﻔﻪﻫﺎي آنﻫﺎ‬
‫ﺑﺰرگ ﻫﺴﺘﻨﺪ و ﺑﻘﻴﻪ آنﻗﺪر ﻛﻮﭼﻚ ﻫﺴﺘﻨﺪ ﻛﻪ ﻗﺎﺑﻞ ﭼﺸﻢ ﭘﻮﺷﻲ ﻫﺴﺘﻨﺪ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ﻣﺎ ﺑﺎﻳﺪ ﺑﻪ دﻧﺒﺎل ﺧﺎﺻﻴﺘﻲ ﺑﺮاي‬
‫‪ A‬ﺑﺎﺷﻴﻢ ﻛﻪ ‪ y‬ﻣﺘﻨﺎﻇﺮ ﻫﻴﭻ ﻛﺪام از اﻳﻦ ﺳﻴﮕﻨﺎلﻫﺎ ﺑﺎ ﻳﻜﺪﻳﮕﺮ ﻳﻜﻲ ﻧﺸﻮﻧﺪ‪ .‬ﻗﻀﻴﻪ زﻳﺮ اﻳﻦ ﺷﺮط را ﺑﻴﺎن ﻣﻲﻛﻨﺪ‪:‬‬
‫ﺗﻌﺮﻳﻒ‪ :‬ﻓﺮض ﻛﻨﻴﺪ‬
‫‪' ⊂ )1,2, … , -‬‬
‫‪ ،‬در اﻳﻦ ﺻﻮرت‬
‫'\‪'. )1,2, … , -‬‬
‫‪ .‬در اﻳﻦ ﺻﻮرت ﻣﻨﻈﻮر ﻣﺎ از ‪،01‬‬
‫ﺳﻴﮕﻨﺎل ‪ X‬اﺳﺖ ﻛﻪ ﺗﻤﺎﻣﻲ دراﻳﻪﻫﺎي ‪ x‬ﺑﺎ اﻧﺪﻳﺲ ﻋﻀﻮ ‪ ،'.‬ﺻﻔﺮ ﺑﺎﺷﻨﺪ‪.‬‬
‫ﺗﻌﺮﻳﻒ‪ :‬ﻣﺎﺗﺮﻳﺲ ‪ A‬را داراي ﺧﺎﺻﻴﺖ ﻓﻀﺎي ﺗﻬﻲ‪ (NSP)3‬از ﻣﺮﺗﺒﻪ ‪ k‬ﻣﻲﮔﻮﻳﻴﻢ‪ ،‬اﮔﺮ و ﺗﻨﻬﺎ اﮔﺮ ‪C‬ي وﺟﻮد داﺷﺘﻪ‬
‫ﺑﺎﺷﺪ ﻛﻪ ﺑﻪ ازاي ﻫﺮ ﺳﻴﮕﻨﺎل ‪ ،2 ∈ 3‬و ﻫﺮ ﻣﺠﻤﻮﻋﻪ ' ﻛﻪ ‪ ، |'| 5 6‬راﺑﻄﻪ زﻳﺮ ﺑﺮﻗﺮار ﺑﺎﺷﺪ‪:‬‬
‫‪null space property‬‬
‫‪9‬‬
‫‪3‬‬
‫در واﻗﻊ ‪ NSP‬ﺑﻴﺎن ﻣﻲﻛﻨﺪ ﻛﻪ ﻫﻴﭻ ﻛﺪام از ﺑﺮدارﻫﺎي ﻋﻀﻮ ﻓﻀﺎي ﺗﻬﻲ ‪ A‬ﻧﺒﺎﻳﺪ اﻧﺮژﻳﺸﺎن ﺣﻮل ‪ k‬ﺗﺎ ﻣﺤﻮر ﺧﻴﻠﻲ‬
‫ﻣﺘﻤﺮﻛﺰ ﺑﺎﺷﺪ‪ .‬در واﻗﻊ اﻳﻦ ﺷﺮط ﺗﻀﻤﻴﻦ ﻣﻲﻛﻨﺪ ﻛﻪ ﻣﺎ ﺑﺎ اﺳﺘﻔﺎده از ‪ y‬و ﻳﻚ اﻟﮕﻮرﻳﺘﻢ ﺑﺎزﻳﺎﺑﻲ ﻣﻨﺎﺳﺐ ﻣﺎﻧﻨﺪ ‪،7‬‬
‫ﻣﻲﺗﻮاﻧﻴﻢ ﺑﻪ دﻗﺘﻲ ﻣﻌﺎدل ‪8 9‬دﺳﺖ ﺑﻴﺎﺑﻴﻢ ﻛﻪ ‪8 9‬ﺑﻪ ﺻﻮرت زﻳﺮ ﺗﻌﺮﻳﻒ ﻣﻲﺷﻮد‪:‬‬
‫و در واﻗﻊ ﻫﻤﺎن ﻣﻴﺰان ﺧﻄﺎي ﺣﺎﺻﻞ از ﻓﺸﺮدهﺳﺎزي داده ﻫﺎﺳﺖ‪.‬‬
‫ﻗﻀﻴﻪ‪ :‬اﮔﺮ ‪ ، A:Rn→Rm‬ﻳﻚ ﻣﺎﺗﺮﻳﺲ ﻧﻤﻮﻧﻪ ﺑﺮداري ﺑﺎﺷﺪ و ∆‪ Rm→Rn:‬ﻳﻚ اﻟﮕﻮرﻳﺘﻢ ﺑﺎزﻳﺎﺑﻲ ﺑﺎﺷﺪ و داﺷﺘﻪ ﺑﺎﺷﻴﻢ‪:‬‬
‫ﺣﺘﻤﺎ ﻣﺎﺗﺮﻳﺲ ‪ ،A‬ﺷﺮط ‪ NSP‬از ﻣﺮﺗﺒﻪ ‪ k2‬را ﺑﺮآورده ﻣﻲﻛﻨﺪ‪.‬‬
‫در واﻗﻊ ﻋﻜﺲ اﻳﻦ ﻗﻀﻴﻪ ﻧﻴﺰ ﺑﺮﻗﺮار اﺳﺖ‪ .‬ﺑﻪ اﻳﻦ ﻣﻌﻨﻲ ﻛﻪ اﮔﺮ‪ ،‬ﻣﺎﺗﺮﻳﺲ ‪ A‬ﺷﺮط ‪ NSP‬از ﻣﺮﺗﺒﻪ ‪ k2‬را داﺷﺘﻪ ﺑﺎﺷﺪ‬
‫و اﻟﮕﻮرﻳﺘﻢ ﺑﺎزﻳﺎﺑﻲ ﻣﺎ ﻧﻴﺰ ﺑﻪ ﻛﻤﻚ ﺣﻞ ﻣﺴﺌﻠﻪ ﻛﻤﻴﻨﻪﺳﺎزي ‪ l1-norm‬ﺑﺎﺷﺪ‪ ،‬ﻣﻲﺗﻮاﻧﻴﻢ ﺑﻪ ﺑﺎﻧﺪ ﺧﻄﺎﻳﻲ ﻣﻌﺎدل آن‬
‫ﭼﻪ ﻛﻪ در ﺻﻮرت ﻗﻀﻴﻪ آﻣﺪه اﺳﺖ‪ ،‬دﺳﺖ ﻳﺎﺑﻴﻢ‪.‬‬
‫ﺗﺎ اﻳﻦ ﺟﺎ ﻳﻚ ﺷﺮط ﻻزم ﺑﺮاي ﻣﺎﺗﺮﻳﺲﻫﺎي ﻧﻤﻮﻧﻪﺑﺮداري از ﺳﻴﮕﻨﺎلﻫﺎي ﺗﻘﺮﻳﺒﺎ ‪ ،sparse‬ﺑﻪ دﺳﺖ آوردهاﻳﻢ اﻣﺎ‬
‫ﻫﻤﻮاره ﻧﻤﻮﻧﻪﺑﺮداري از ﺳﻴﮕﻨﺎل ﺑﺎ ﻣﻘﺪاري ‪ ،noise‬ﻫﻤﺮاه اﺳﺖ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮاي ﺑﺎزﻳﺎﺑﻲ ﺳﻴﮕﻨﺎل از روي ﻳﻚ ﻣﻌﻴﺎر‬
‫ﻫﻤﺮاه ﺑﺎ ‪ noise‬ﻣﺎﻧﻨﺪ ‪ ،y‬ﺑﺎﻳﺪ ﻣﺎﺗﺮﻳﺲ ﻧﻤﻮﻧﻪ ﺑﺮداري ﻣﺎ ﺷﺮط ﻗﻮيﺗﺮي را ارﺿﺎ ﻛﻨﺪ‪ .‬اﻳﻦ ﺧﺎﺻﻴﺖ را ‪ RIP‬ﻣﻲﻧﺎﻣﻨﺪ‪.‬‬
‫ﺗﻌﺮﻳﻒ‪ :‬ﻣﺎﺗﺮﻳﺲ ‪ A‬را داراي ﺧﺎﺻﻴﺖ ‪ RIP4‬از ﻣﺮﺗﺒﻪ ‪ k‬ﻣﻲﮔﻮﻳﻨﺪ اﮔﺮ و ﺗﻨﻬﺎ اﮔﺮ ‪ δ ∈ 0,1‬وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ‪،‬‬
‫ﻛﻪ ﺑﻪ ازاي ﻫﺮ ﺳﻴﮕﻨﺎل‬
‫‪ ،X ،k-sparse‬ﺷﺮط زﻳﺮ ﺑﺮﻗﺮار ﺑﺎﺷﺪ‪.‬‬
‫در واﻗﻊ ﺷﺮط ‪ ،RIP‬ﺑﻴﺎن ﻣﻲﻛﻨﺪ ﻛﻪ اﮔﺮ ﻳﻚ ﻣﺎﺗﺮﻳﺲ ﺧﺎﺻﻴﺖ ‪ RIP‬از ﻣﺮﺗﺒﻪ ‪ k2‬را داﺷﺘﻪ ﺑﺎﺷﺪ‪ A ،‬ﺗﻘﺮﻳﺒﺎ ﻓﺎﺻﻠﻪ‬
‫ﺑﻴﻦ ﻫﺮ دو ﺑﺮدار ‪ k-sparse‬را ﻧﮕﻪ ﻣﻲدارد‪ .‬داﺷﺘﻦ ﺧﺎﺻﻴﺖ ‪ RIP‬و ﻣﻘﺎوم ﺑﻮدن اﻟﮕﻮرﻳﺘﻢ ﻧﻤﻮﻧﻪﺑﺮداري و ﺑﺎزﻳﺎﺑﻲ‬
‫ﻧﺴﺒﺖ ﺑﻪ ‪ ،noise‬راﺑﻄﻪ ﺑﺴﻴﺎر ﻧﺰدﻳﻜﻲ ﺑﺎﻫﻢ دارﻧﺪ‪ .‬ﺣﺎل ﺑﻪ ﺑﺮرﺳﻲ ﺑﺎﻧﺪﻫﺎي ﻣﻮﺟﻮد در ‪ ،RIP‬ﻣﻲﭘﺮدازﻳﻢ‪ .‬ﺑﺮاي‬
‫‪Restricted Isometry Property‬‬
‫‪10‬‬
‫‪4‬‬
‫ﺑﺎزﻳﺎﺑﻲ ﻳﻚ ﺳﻴﮕﻨﺎل ‪ x‬از روي ‪ ،Ax‬دﻗﻴﻘﺎ ﺑﻪ ﻫﻤﺎن دﻟﻴﻠﻲ ﻛﻪ ﻻزم اﺳﺖ ﻛﻪ ‪ Ax‬وﻳﮋﮔﻲ ‪ ،NSP‬را داﺷﺘﻪ ﺑﺎﺷﺪ‪ ،‬ﻻزم‬
‫اﺳﺖ ﻛﻪ ﺑﺎﻧﺪ ﭘﺎﻳﻴﻦ ‪ RIP‬را ﻧﻴﺰ رﻋﺎﻳﺖ ﻛﻨﺪ‪ .‬ﺣﺎل ﺑﺮاي اﻳﻦ ﻛﻪ راﺑﻄﻪ اﻳﻦ ﺑﺎﻧﺪ ﭘﺎﻳﻴﻦ را ﺑﺎ ‪ robust‬ﺑﻮدن ﻧﺴﺒﺖ ﺑﻪ‬
‫‪ ،noise‬ﺑﻴﺎن ﻛﻨﻴﻢ‪ ،‬ﻳﻚ ﺗﻌﺮﻳﻒ و ﻳﻚ ﻗﻀﻴﻪ دارﻳﻢ‪:‬‬
‫ﺗﻌﺮﻳﻒ‪ :‬اﮔﺮ ‪ A:Rm→Rm‬ﻳﻚ ﻣﺎﺗﺮﻳﺲ ﻧﻤﻮﻧﻪ ﺑﺮداري ﺑﺎﺷﺪ و ‪ ،Δ:Rm→Rn‬ﺟﻔﺖ‬
‫‪, Δ‬‬
‫را ‪ C-stable‬ﻣﻲﮔﻮﻳﻴﻢ‪،‬‬
‫اﮔﺮ و ﺗﻨﻬﺎ اﮔﺮ‪ ،‬ﺑﻪ ازاي ﻫﺮ ﺳﻴﮕﻨﺎل ‪ ،x ،k-sparse‬و ﻫﺮ ‪ ،e∈Rm‬داﺷﺘﻪ ﺑﺎﺷﻴﻢ‪:‬‬
‫ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ در ﺗﻌﺮﻳﻒ ‪ ،C-stability‬ﺧﻄﺎي ‪ ،e‬ﻣﺴﺘﻘﻞ از ‪ A‬اﺳﺖ ﻳﺎ ﺑﻪ ﻋﺒﺎرت دﻳﮕﺮ ﻣﺎ ﻓﺮض ﻛﺮدهاﻳﻢ ﻛﻪ ﻧﻮﻳﺰ‬
‫ﻣﻮﺟﻮد در ﻧﻤﻮﻧﻪﺑﺮداري ﻣﺎ ‪ additive‬اﺳﺖ‪ .‬در ﺣﺎﻟﻲ ﻛﻪ در اﻛﺜﺮ ﻣﻮاﻗﻊ ﭼﻨﻴﻦ ﻓﺮﺿﻲ درﺳﺖ ﻧﻴﺴﺖ‪ .‬ﻣﺎﻧﻨﺪ‬
‫ﺧﻄﺎﻫﺎي ﺣﺎﺻﻞ از ‪ .quantization‬ﺑﻪ ﻃﻮر ﻗﻄﻊ در اﻳﻦ ﺣﺎﻟﺖ اﮔﺮ ﻣﺎ ‪ A‬را در ﻳﻚ ﺿﺮﻳﺐ ﺑﺰرگ ﺿﺮب ﻛﻨﻴﻢ‪،‬‬
‫ﻧﺴﺒﺖ اﻧﺮژي ‪ Ax‬ﻧﺴﺒﺖ ﺑﻪ ‪ e‬ﻛﺎﻫﺶ ﻣﻲﻳﺎﺑﺪ و ﺑﻨﺎﺑﺮاﻳﻦ ﻣﻲﺗﻮاﻧﻴﻢ از ‪ e‬ﺻﺮف ﻧﻈﺮ ﻛﻨﻴﻢ‪.‬‬
‫ﻗﻀﻴﻪ‪ :‬اﮔﺮ ‪ C-stable ،, Δ‬ﺑﺎﺷﻨﺪ‪ ،‬آن ﮔﺎه ﺑﻪ ازاي ﻫﺮ ﺳﻴﮕﻨﺎل ‪ ،x∈ Σ‬ﺑﺎﻳﺪ داﺷﺘﻪ ﺑﺎﺷﻴﻢ‪:‬‬
‫ﻛﻪ ﻣﻨﻈﻮر از ‪ Σ‬ﻣﺠﻤﻮﻋﻪ ﺗﻤﺎم ﺳﻴﮕﻨﺎلﻫﺎي ‪ k-sparse‬اﺳﺖ‪.‬‬
‫ﺑﻨﺎﺑﺮاﻳﻦ راﺑﻄﻪ ﻧﺰدﻳﻜﻲ ﺑﻴﻦ ‪ robust‬ﺑﻮدن ﺳﻴﺴﺘﻢ ﻧﻤﻮﻧﻪ ﺑﺮداري ﻣﺎ ﻧﺴﺒﺖ ﺑﻪ ‪ noise‬و ﺧﺎﺻﻴﺖ ‪ RIP‬ﻣﺎﺗﺮﻳﺲ‬
‫ﻧﻤﻮﻧﻪ ﺑﺮداري وﺟﻮد دارد‪.‬‬
‫ﻋﻼوه ﺑﺮ اﻳﻦ‪ ، RIP ،‬ﺧﺎﺻﻴﺘﻲ ﻗﻮيﺗﺮ از ‪ NSP‬اﺳﺖ ﻳﺎ ﺑﻪ ﻋﺒﺎرﺗﻲ دﻳﮕﺮ اﮔﺮ ﻳﻚ ﻣﺎﺗﺮﻳﺲ ﺧﺎﺻﻴﺖ ‪ RIP‬را داﺷﺘﻪ‬
‫ﺑﺎﺷﺪ‪ ،‬ﺣﺘﻤﺎ ﺧﺎﺻﻴﺖ ‪ NSP‬را ﻧﻴﺰ دارد‪ .‬ﻗﻀﻴﻪ زﻳﺮ اﻳﻦ ﺣﻜﻢ را اﺛﺒﺎت ﻣﻲﻛﻨﺪ‪:‬‬
‫ﻗﻀﻴﻪ‪ :‬اﮔﺮ ﻣﺎﺗﺮﻳﺲ ‪ A‬ﺧﺎﺻﻴﺖ ‪ RIP‬از ﻣﺮﺗﺒﻪ ‪ k2‬را داﺷﺘﻪ ﺑﺎﺷﺪ ﻛﻪ در آن @‪ ?@ A‬ﺑﺎﺷﺪ‪ ،‬در اﻳﻦ ﺻﻮرت ‪A‬‬
‫وﻳﮋﮔﻲ ‪ NSP‬از ﻣﺮﺗﺒﻪ ‪ k2‬را ﺑﺎ ‪ C‬زﻳﺮ دارد‪:‬‬
‫@?‬
‫@?‪1 D 2‬‬
‫‪B √2‬‬
‫‪11‬‬
‫ﺗﻌﺪادي ﻣﻌﻴﺎر ﺑﺮاي ﻣﻄﻠﻮب ﺑﻮدن ﻣﺎﺗﺮﻳﺲﻫﺎي ﻧﻤﻮﻧﻪﺑﺮداري ﺗﻌﻴﻴﻦ ﻛﺮدهاﻳﻢ ﻣﺎﻧﻨﺪ داﺷﺘﻦ ﺧﺎﺻﻴﺖ ‪ NSP‬و ﻳﺎ ‪.RIP‬‬
‫ﭼﻚ ﻛﺮدن ﻫﺮ ﻛﺪام از اﻳﻦ ﺷﺮاﻳﻂ ﺑﺮاي ﻳﻚ ﻣﺎﺗﺮﻳﺲ‪ ،‬ﭘﻴﭽﻴﺪﮔﻲ ﻣﺤﺎﺳﺒﺎﺗﻲ ﺑﺴﻴﺎر ﺑﺎﻻﻳﻲ دارد‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺎﻳﺪ ﺑﻪ‬
‫دﻧﺒﺎل ﻳﻚ ﻣﻌﻴﺎر ﺑﺎ ﻗﺎﺑﻠﻴﺖ ﻣﺤﺎﺳﺒﻪ ﺳﺎدهﺗﺮ ﺑﺎﺷﻴﻢ‪ .‬اﻳﻦ ﻣﻌﻴﺎر ‪ coherence‬ﻧﺎم دارد ﻛﻪ در اداﻣﻪ در ﻣﻮرد آن ﺑﺤﺚ‬
‫ﻣﻲﻛﻨﻴﻢ‪.‬‬
‫ﺗﻌﺮﻳﻒ‪ coherence :‬ﻣﺎﺗﺮﻳﺲ ‪ A‬را ﻛﻪ ﺑﺎ ‪ μ‬ﻧﻤﺎﻳﺶ ﻣﻲدﻫﻨﺪ‪ ،‬ﺑﺮاﺑﺮ ﺑﺰرﮔﺘﺮﻳﻦ ﻣﻘﺪار ﺿﺮب داﺧﻠﻲ ﺑﻴﻦ ﻫﺮ دو‬
‫ﺳﺘﻮن از ‪ A‬اﺳﺖ‪ .‬ﺑﻪ ﻋﺒﺎرت دﻳﮕﺮ‪:‬‬
‫ﻟﻢ‪ :1‬ﺑﻪ ازاي ﻫﺮ ﻣﺎﺗﺮﻳﺲ ‪ A‬دارﻳﻢ‪:‬‬
‫ﻟﻢ‪ :2‬اﮔﺮ ‪ ،A‬ﻳﻚ ﻣﺎﺗﺮﻳﺲ ﺑﺎ ﺳﺘﻮنﻫﺎي ﺑﺎ ‪ norm‬واﺣﺪ ﺑﺎﺷﺪ و ‪ F F‬ﺑﺎﺷﺪ‪ ،‬در اﻳﻦ ﺻﻮرت ‪ ،A‬ﺧﺎﺻﻴﺖ ‪RIP‬‬
‫از ﻣﺮﺗﺒﻪ ‪ k‬را ﺑﻪ ازاي ﻫﺮ ‪ 6 GA‬ﺑﺎ ‪ δ 6 D 1F‬ﺑﺮآورده ﻣﻲﻛﻨﺪ‪.‬‬
‫ﺑﻨﺎﺑﺮاﻳﻦ ﻣﻌﻴﺎر ‪ ،coherence‬ﻳﻚ ﻣﻌﻴﺎر ﻗﺎﺑﻞ ﻣﺤﺎﺳﺒﻪ اﺳﺖ و ﺗﻨﺎﻇﺮ ﺧﻮﺑﻲ ﺑﺎ ‪ RIP‬دارد‪.‬‬
‫‪ .5‬ﺗﻌﺪاد ﻧﻤﻮﻧﻪﻫﺎي ﻻزم‬
‫ﺗﺎ اﻳﻦ ﺟﺎ ﺗﻌﺪادي ﺷﺮط ﻻزم ﺑﺮاي ﻣﺎﺗﺮﻳﺲ ﻧﻤﻮﻧﻪﺑﺮداري ‪ ،A‬ﺑﻴﺎن ﻛﺮدﻳﻢ ﻛﻪ در ﺻﻮرﺗﻲ ﻛﻪ ﺑﺨﻮاﻫﻴﻢ ﺑﺘﻮاﻧﻴﻢ ﺑﻪ‬
‫ﺻﻮرت ﻛﺎرا‪ ،‬ﻓﺮآﻳﻨﺪ ﺑﺎزﻳﺎﺑﻲ را اﻧﺠﺎم دﻫﻴﻢ‪ ،‬ﺑﺎﻳﺪ ﻣﺎﺗﺮﻳﺲ ﻣﺎ اﻳﻦ وﻳﮋﮔﻲﻫﺎ را داﺷﺘﻪ ﺑﺎﺷﺪ‪ .‬ﺑﺎ اﺳﺘﻔﺎده از اﻳﻦ ﺷﺮاﻳﻂ‪،‬‬
‫ﺳﻌﻲ ﻣﻲﻛﻨﻴﻢ‪ ،‬ﺑﺎﻧﺪﻫﺎي دﻗﻴﻖﺗﺮي روي ﺣﺪاﻗﻞ ﺗﻌﺪاد ﻧﻤﻮﻧﻪﻫﺎي ﻻزم ﺑﺮاي ﺑﺎزﻳﺎﺑﻲ ﺳﻴﮕﻨﺎل اراﺋﻪ دﻫﻴﻢ‪.‬‬
‫ﻗﻀﻴﻪ‪ :‬اﮔﺮ ‪ A‬ﻳﻚ ﻣﺎﺗﺮﻳﺲ ! ﺑﺎﺷﺪ ﻛﻪ ﺷﺮاﻳﻂ ‪ RIP‬از ﻣﺮﺗﺒﻪ ‪ k2‬را ﺑﺎ ‪ ? ∈ 0, A@H‬ﺑﺮآورده ﻛﻨﺪ‪ ،‬در اﻳﻦ ﺻﻮرت‬
‫ﺑﺎﻳﺪ‪:‬‬
‫‪12‬‬
‫ﻛﻪ در آن‬
‫‪A‬‬
‫‪B @ IJKL√@MNAO ≈ 0.28‬‬
‫ﺗﻮﺟﻪ ﻛﻨﻴﺪ ﻛﻪ ﻗﻀﻴﻪ ﺑﺎﻻ راﺑﻄﻪ ﺑﻴﻦ ‪ m‬و ? را ﺑﻴﺎن ﻧﻤﻲﻛﻨﺪ‪ .‬ﺑﻴﻦ ? و ‪ m‬راﺑﻄﻪ زﻳﺮ ﺑﺮﻗﺮار اﺳﺖ‪:‬‬
‫‪6‬‬
‫@?‬
‫‪ ≥ B′‬‬
‫ﻛﻪ اﻳﻦ ﺑﺎﻧﺪ‪ ،‬ﻣﻲﺗﻮاﻧﺪ ﺧﻴﻠﻲ ﺑﺰرﮔﺘﺮ از ﺑﺎﻧﺪي ﺑﺎﺷﺪ ﻛﻪ در ﻗﻀﻴﻪ ﻗﺒﻞ ﺑﻪ دﺳﺖ آﻣﺪه اﺳﺖ‪.‬‬
‫ﺗﺎ اﻳﻦ ﺟﺎ ﺧﺎﺻﻴﺖ ﻫﺎﻳﻲ را ﻛﻪ ﻳﻚ ﻣﺎﺗﺮﻳﺲ ﻧﻤﻮﻧﻪ ﮔﻴﺮي ﺑﺎﻳﺪ داﺷﺘﻪ ﺑﺎﺷﺪ ﺑﻪ دﺳﺖ آوردﻳﻢ و ﺗﻌﺪادي ﺑﺎﻧﺪ ﻧﻴﺰ ﺑﺮاي‬
‫ﺗﻌﺪاد ﻧﻤﻮﻧﻪﻫﺎي ﻻزم ﺗﻌﻴﻴﻦ ﻛﺮدﻳﻢ اﻣﺎ ﻣﺴﺌﻠﻪاي ﻛﻪ ﺑﺎﻗﻴﺴﺖ‪ ،‬اﻳﻦ اﺳﺖ ﻛﻪ ﭼﮕﻮﻧﻪ ﻣﺎﺗﺮﻳﺴﻲ ﺑﺴﺎزﻳﻢ ﻛﻪ اﻳﻦ ﺷﺮاﻳﻂ‬
‫را داﺷﺘﻪ ﺑﺎﺷﺪ‪ .‬ﺑﺮاي اﻳﻦ ﻛﺎر روشﻫﺎي ﻗﻄﻌﻲ‪ 5‬ﺑﻴﺎن ﺷﺪه اﻧﺪ ﻛﻪ ﺑﺎ ‪ (m=O(kna‬ﺑﻪ ازاي ﻳﻚ ﻣﻘﺪار ﺛﺎﺑﺖ ‪،a‬‬
‫ﻣﺎﺗﺮﻳﺲ ! اي ﺑﺴﺎزﻧﺪ ﻛﻪ ﺧﺎﺻﻴﺖ ‪ RIP‬از ﻣﺮﺗﺒﻪ ‪ k‬را داﺷﺘﻪ ﺑﺎﺷﺪ‪ .‬اﻣﺎ اﻧﺠﺎم اﻳﻦ ﻛﺎر ﺑﻪ ازاي ‪m‬ﻫﺎي ﻛﻤﺘﺮ‬
‫ﺑﺴﻴﺎر ﭘﻴﭽﻴﺪه اﺳﺖ و ﻣﻘﺪار ‪ m‬ﻧﻴﺰ در اﻳﻦ روشﻫﺎ‪ ،‬ﺑﺴﻴﺎر ﺑﺎﻻﺳﺖ‪ .‬ﺧﻮﺷﺒﺨﺘﺎﻧﻪ ﺑﻪ ﻛﺎرﮔﻴﺮي اﻟﮕﻮرﻳﺘﻢﻫﺎي ﺗﺼﺎدﻓﻲ‬
‫ﺑﺮاي ﺳﺎﺧﺘﻦ ‪ ،A‬ﺟﻮاب ﺧﻮﺑﻲ ﻣﻲدﻫﺪ‪ .‬ﺑﻪ ﻋﻨﻮان ﻣﺜﺎل ﻳﻚ ﻣﺎﺗﺮﻳﺲ ! ‪ ،A ،‬ﻛﻪ دراﻳﻪﻫﺎي آن ‪ iid‬ﺑﺎ ﺗﻮزﻳﻊ‬
‫ﭘﻴﻮﺳﺘﻪ ﺑﺎﺷﻨﺪ‪ ،‬ﺑﻪ اﺣﺘﻤﺎل ﻳﻚ داراي ‪ Spark‬ﺑﺮاﺑﺮ ‪ m+1‬اﺳﺖ‪ .‬ﻫﻢﭼﻨﻴﻦ ﻣﻲﺗﻮان ﻧﺸﺎن داد ﻛﻪ در ﺻﻮرﺗﻲ ﻛﻪ‬
‫ﺗﻮزﻳﻌﻲ ﻛﻪ دراﻳﻪ ﻫﺎي ﻣﺎﺗﺮﻳﺲ ‪ A‬را از آن ﻣﻲﮔﻴﺮﻳﻢ‪ ،‬ﻧﺮﻣﺎل ﻳﺎ ﺑﺮﻧﻮﻟﻲ ﺑﺎﺷﺪ‪ ،‬ﺑﻪ اﺣﺘﻤﺎل ﺑﺎﻻﻳﻲ‪ ،‬ﺧﺎﺻﻴﺖ ‪ RIP‬را ﻧﻴﺰ‬
‫دارد‪.‬‬
‫‪ .6‬روشﻫﺎي ﺑﺎزﺳﺎزي ﺳﻴﮕﻨﺎل‪:‬‬
‫در اﻳﻦ ﻗﺴﻤﺖ‪ ،‬روشﻫﺎي ﺑﺎزﻳﺎﺑﻲ را در دو ﺣﺎﻟﺖ ﺑﺪون ﻧﻮﻳﺰ و در ﺣﻀﻮر ﻧﻮﻳﺰ ﺑﺮرﺳﻲ ﻣﻲﻛﻨﻴﻢ‪ .‬در ﻫﺮ دوي اﻳﻦ‬
‫ﻣﺴﺎﺋﻞ‪ ،‬ﺑﺎزﺳﺎزي ﺳﻴﮕﻨﺎل را ﺑﻪ ﻳﻚ ﻣﺴﺌﻠﻪ ﺑﻬﻴﻨﻪ ﺳﺎزي ﻣﺤﺪب ﺗﺒﺪﻳﻞ ﻣﻲﻛﻨﻴﻢ و ﺑﺎ ﺣﻞ آن ﺳﻴﮕﻨﺎل را ﺑﺎ ﺗﻘﺮﻳﺐ‬
‫ﺧﻮﺑﻲ ﺑﻪ دﺳﺖ ﻣﻲآورﻳﻢ‪.‬‬
‫ﺑﺮاي ﺑﺎزﻳﺎﺑﻲ ﻳﻚ ﺳﻴﮕﻨﺎل از روي ﻧﻤﻮﻧﻪﻫﺎي ﮔﺮﻓﺘﻪ ﺷﺪه در ﺣﺎﻟﺘﻲ ﻛﻪ در ﺣﻴﻦ ﻓﺮآﻳﻨﺪ ﻧﻤﻮﻧﻪﺑﺮداري ﻧﻮﻳﺰ ﻧﺪاﺷﺘﻪ‬
‫ﺑﺎﺷﻴﻢ‪ ،‬از ﻓﺮض ‪ Sparse‬ﺑﻮدن ﺳﻴﮕﻨﺎل ﺑﻪ اﻳﻦ ﺻﻮرت اﺳﺘﻔﺎده ﻣﻲﻛﻨﻴﻢ ﻛﻪ ‪sparse‬ﺗﺮﻳﻦ ﺳﻴﮕﻨﺎﻟﻲ را ﭘﻴﺪا‬
‫ﻣﻲﻛﻨﻴﻢ ﻛﻪ اﮔﺮ از آن ﻧﻤﻮﻧﻪﺑﺮداري ﻛﻨﻴﻢ‪ ،‬ﻫﻤﺎن ﻧﻤﻮﻧﻪﻫﺎ را ﺑﻪ ﻣﺎ ﺑﺪﻫﺪ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ﻣﺴﺌﻠﻪ ﺑﺎزﻳﺎﺑﻲ ﻣﺎ ﺑﻪ ﺣﻞ ﻣﺴﺌﻠﻪ‬
‫ﺑﻬﻴﻨﻪﺳﺎزي زﻳﺮ ﺗﺒﺪﻳﻞ ﻣﻲﺷﻮد‪:‬‬
‫‪deterministic‬‬
‫‪13‬‬
‫‪5‬‬
‫ﻛﻪ در ﺻﻮرﺗﻲ ﻛﻪ ﻓﺮآﻳﻨﺪ ﻧﻤﻮﻧﻪ ﺑﺮداري ﻣﺎ ﺑﺪون ﻧﻮﻳﺰ اﻧﺠﺎم ﺷﺪه ﺑﺎﺷﺪ‪ Β )V: ΦV - ،‬و در ﺻﻮرﺗﻲ ﻛﻪ در‬
‫ﻓﺮآﻳﻨﺪ ﻧﻤﻮﻧﻪﺑﺮداري ﻣﺎ ﻧﻮﻳﺰ وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ‪،‬‬
‫‪Β )V: ||ΦV D ||@ 5 X-‬‬
‫ﻣﻲﺷﻮد‪ .‬اﻟﺒﺘﻪ از آن ﺟﺎ ﻛﻪ‬
‫ﻣﺴﺌﻠﻪ ﭘﻴﺪا ﻛﺮدن ̂ ‪ ،‬ﻳﻚ ﻣﺴﺌﻠﻪ ﺑﻬﻴﻨﻪ ﺳﺎزي ﻏﻴﺮ ﻣﺤﺪب اﺳﺖ‪ ،‬ﻣﺴﺌﻠﻪ ﻛﻤﻴﻨﻪ ﻛﺮدن [∥ ‪ ∥ V‬را ﺑﺎ ﻣﺴﺌﻠﻪ ﻛﻤﻴﻨﻪ‬
‫ﻛﺮدن‬
‫‪∥ V ∥A‬‬
‫ﻋﻮض ﻣﻲﻛﻨﻴﻢ ﺗﺎ ﻣﺴﺌﻠﻪ ﺗﺒﺪﻳﻞ ﺑﻪ ﺑﻬﻴﻨﻪﺳﺎزي ﻣﺤﺪب ﺷﻮد‪. .‬ﺑﻪ اﻳﻦ روش ﺑﺎزﺳﺎزي ﺳﻴﮕﻨﺎل در‬
‫ﺣﺎﻟﺖ ﺑﺪون ﻧﻮﻳﺰ‪ Basis Pursuit ،‬و در ﺣﺎﻟﺖ ﻫﻤﺮاه ﺑﺎ ﻧﻮﻳﺰ‪ Lasso ،‬ﻣﻲﮔﻮﻳﻨﺪ‪.‬‬
‫در اﻳﻦ ﺟﺎ دو ﻣﺴﺌﻠﻪ ﺑﻪ وﺟﻮد ﻣﻲآﻳﺪ‪ .‬ﻳﻜﻲ اﻳﻦﻛﻪ ﺗﺨﻤﻴﻦ ‪ x‬ﺑﺎ اﺳﺘﻔﺎده از‬
‫̂‬
‫ﺗﻨﻬﺎ ﺑﻪ اﺳﺘﻨﺎد اﻳﻦ ﻓﺮض ﻛﻪ ‪،x‬‬
‫‪ sparse‬اﺳﺖ‪ ،‬آنﭼﻨﺎن ﺗﺨﻤﻴﻦ واﻗﻊ ﺑﻴﻨﺎﻧﻪاي ﺑﻪ ﻧﻈﺮ ﻧﻤﻲرﺳﺪ‪ .‬و دوم اﻳﻦ ﻛﻪ ﺣﺎل ﺑﻪ ﻓﺮض اﻳﻦ ﻛﻪ‬
‫̂‬
‫ﺗﺨﻤﻴﻦ‬
‫ﺧﻮﺑﻲ از ‪ x‬ﺑﺎﺷﺪ‪ ،‬ﭼﺮا ﺑﺎ ﻋﻮض ﻛﺮدن ‪ L0-norm‬ﺑﺎ ‪ ،L1-norm‬اﻳﻦ ﺗﺨﻤﻴﻦ دﭼﺎر ﺗﻐﻴﻴﺮ زﻳﺎدي ﻧﻤﻲﺷﻮد‪.‬‬
‫ﺑﺮاي ﭘﺎﺳﺦ ﺑﻪ ﺳﻮال اول ﺑﺎﻳﺪ ﺑﻪ اﻳﻦ ﻧﻜﺘﻪ دﻗﺖ ﻛﻨﻴﺪ ﻛﻪ ﻣﺎﺗﺮﻳﺲ ﻧﻤﻮﻧﻪﺑﺮداري ﻣﺎ‪ ،‬ﺷﺮاﻳﻂ ‪ RIP‬و ‪ NSP‬را دارد و‬
‫ﺑﻨﺎﺑﺮاﻳﻦ اﮔﺮ ﺳﻴﮕﻨﺎلﻫﺎي ﻣﻮرد ﻧﻈﺮ ﻣﺎ ﺑﻪ ﮔﻮﻧﻪاي ﺑﺎﺷﺪ ﻛﻪ اﻧﺮژياش ﺣﻮل ‪ k‬ﻣﺤﻮر ﻣﺘﻤﺮﻛﺰ ﺷﺪه ﺑﺎﺷﺪ‪ ،‬ﺗﻨﻬﺎ ﻳﻚ‬
‫ﺳﻴﮕﻨﺎل ‪ x‬وﺟﻮد دارد ﻛﻪ ‪ y‬ﺑﻪ دﺳﺖ آﻣﺪه را ﺑﻪ ﻣﺎ ﺑﺪﻫﺪ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ اﻳﻦ ﻛﻪ ﻣﺎ ‪sparse‬ﺗﺮﻳﻦ ﺟﻮاب ﺻﺎدق در ﻣﻌﺎدﻟﻪ‬
‫‪ y=Ax‬را ﺑﻪ ﻋﻨﻮان ﺳﻴﮕﻨﺎل اوﻟﻴﻪ در ﻧﻈﺮ ﺑﮕﻴﺮﻳﻢ‪ ،‬در واﻗﻊ ﻣﻌﺎدل ﺗﺨﻤﻴﻦ ﺳﻴﮕﻨﺎل ﺑﺎ اﺳﺘﻔﺎده از ﺗﻌﺪادي از‬
‫ﺑﺰرﮔﺘﺮﻳﻦ ﺿﺮاﻳﺐ آن اﺳﺖ‪.‬‬
‫در ﭘﺎﺳﺦ ﺑﻪ ﺳﻮال دوم ﻧﻴﺰ ﻣﻲﺗﻮان ﮔﻔﺖ ﻛﻪ ﻣﺴﺌﻠﻪ ﺑﻬﻴﻨﻪ ﺳﺎزي ﺑﺎﻻ‪ ،‬از ﺑﻴﻦ ﻣﺠﻤﻮﻋﻪ ﻧﻘﺎﻃﻲ ﻛﻪ در ﻣﻌﺎدﻟﻪ ‪Ax-‬‬
‫‪ y=0‬ﻗﺮار ﻣﻲﮔﻴﺮﻧﺪ‪ ،‬ﻧﻘﻄﻪاي ﻛﻪ ﻛﻤﺘﺮﻳﻦ ‪ norm0‬را دارد‪ ،‬اﻧﺘﺨﺎب ﻣﻲﻛﻨﺪ ﻛﻪ اﻳﻦ ﻣﻌﺎدل اﺳﺖ ﺑﺎ ﺑﺰرگ ﻛﺮدن‬
‫‪ l0-ball‬ﺗﺎ وﻗﺘﻲ ﻛﻪ ﺑﺎ ﺻﻔﺤﻪ ‪ ،Ax-y=0‬ﺑﺮﺧﻮرد ﻛﻨﺪ)ﻣﻄﺎﺑﻖ ﺷﻜﻞ ‪ .(4‬ﺣﺎل اﮔﺮ ﻫﻤﻴﻦ ﻛﺎر را ﺑﺎ اﺳﺘﻔﺎده از ﻫﺮ ‪lp-‬‬
‫‪ ball‬ﻧﻴﺰ اﻧﺠﺎم ﺑﺪﻫﻴﻢ ﻛﻪ ‪ ،\ 5 1‬ﻣﺸﺎﻫﺪه ﻣﻲﻛﻨﻴﻢ ﻛﻪ ﺟﻮاب ﻳﻜﺴﺎﻧﻲ ﺑﻪ ﻣﺎ ﻣﻲدﻫﺪ)ﻣﻄﺎﺑﻖ ﺷﻜﻞ ‪ .(4‬ﺑﻨﺎﺑﺮاﻳﻦ ﺑﻪ‬
‫ﻃﻮر ﺷﻬﻮدي ﻣﻲﺗﻮان دﻳﺪ ﻛﻪ اﺳﺘﻔﺎده از ﻫﺮ ﻛﺪام از ‪ lp-norm‬ﻫﺎ ﻛﻪ ‪ \ 5 1‬ﺑﺎﺷﺪ‪ ،‬ﺟﻮاب ﻳﻜﺴﺎﻧﻲ ﺑﻪ ﻣﺎ ﻣﻲدﻫﺪ‪.‬‬
‫ﺷﻜﻞ ‪.4‬ﻧﻤﺎﻳﺶ ﺟﻮابﻫﺎي ﻣﺨﺘﻠﻒ ﻣﺴﺌﻠﻪ ﺑﻬﻴﻨﻪ ﺳﺎزي ﺑﺎ اﺳﺘﻔﺎده از ﻛﻤﻴﻨﻪ ﻛﺮدن ‪ lp-norm‬ﺑﻪ ازاي ‪p‬ﻫﺎي ﻣﺨﺘﻠﻒ‬
‫‪14‬‬
‫ﻗﻀﻴﻪ زﻳﺮ اﻳﻦ ﮔﻔﺘﻪ را ﺗﺼﺪﻳﻖ ﻣﻲﻛﻨﺪ‪:‬‬
‫ﻗﻀﻴﻪ‪ :‬اﮔﺮ ﻣﺎﺗﺮﻳﺲ ‪ A‬وﻳﮋﮔﻲ ‪ RIP‬از ﻣﺮﺗﺒﻪ ‪ k2‬ﺑﺎ ‪ ،?@ √2 D 1‬داﺷﺘﻪ ﺑﺎﺷﺪ‪ ،‬اﮔﺮ ‪ x‬را ﺑﺎ اﺳﺘﻔﺎده از ‪Basis‬‬
‫‪ ،Pursuit‬ﺑﺎزﺳﺎزي ﻛﻨﻴﻢ و ﺑﻪ ﺳﻴﮕﻨﺎل ] ﺑﺮﺳﻴﻢ‪ ،‬ﺧﻮاﻫﻴﻢ داﺷﺖ‪:‬‬
‫‪8 A‬‬
‫‪√6‬‬
‫[‪||] D ||@ 5 B‬‬
‫ﺑﺮاي ﺗﻮﺟﻴﻪ ﺑﻬﺘﺮ ﻗﻀﻴﻪ ﺑﺎﻻ‪ ،‬ﻳﻚ آزﻣﻮن ﻋﻤﻠﻲ ﺑﺎ اﺳﺘﻔﺎده از ‪ Basis Pursuit‬اﻧﺠﺎم دادﻳﻢ‪ .‬ﺑﻪ اﻳﻦ ﺻﻮرت ﻛﻪ از‬
‫‪ 100‬ﻧﻤﻮﻧﻪ ﺳﻴﮕﻨﺎل ‪ 512‬ﺑﻌﺪي ‪ sparse-150‬ﻛﻪ ﺑﻪ ﺻﻮرت ﺗﺼﺎدﻓﻲ ﺗﻮﻟﻴﺪ ﺷﺪه ﺑﻮدﻧﺪ‪ 256 ،‬ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﻲ از‬
‫ﻫﺮﻛﺪام ﮔﺮﻓﺘﻴﻢ و ﺑﺎ اﺳﺘﻔﺎده از ﻛﻤﻴﻨﻪ ﻛﺮدن ‪ ،l1-norm‬ﺑﻪ ﺑﺎزﺳﺎزي ﺳﻴﮕﻨﺎل ﭘﺮداﺧﺘﻴﻢ ﻛﻪ در ﻧﻬﺎﻳﺖ ﺑﺎ ﺧﻄﺎي‬
‫‪^5‬‬
‫ﻣﻴﺎﻧﮕﻴﻦ ‪ 1.13 ! 10‬درﺻﺪ‪ ،‬ﺳﻴﮕﻨﺎلﻫﺎ را ﺑﺎزﻳﺎﺑﻲ ﻛﺮدﻳﻢ و ﺑﻨﺎﺑﺮاﻳﻦ ﺗﻮاﻧﺴﺘﻴﻢ ﺑﺎ داﺷﺘﻦ ﺗﻨﻬﺎ ﻧﻴﻤﻲ از ﻣﻌﺎدﻻت ﻻزم‬
‫ﺑﺮاي ﭘﻴﺪا ﻛﺮدن ‪ ،x‬از روي ﻣﻌﺎدﻟﻪ ‪ ،Ax=y‬ﺳﻴﮕﻨﺎل را ﺑﻪ ﺻﻮرت ﻛﺎﻣﻞ ﺑﺎزﺳﺎزي ﻛﻨﻴﻢ‪ .‬در ﺣﺎﻟﻲ ﻛﻪ اﮔﺮ ﺑﺎ اﺳﺘﻔﺎده‬
‫از ﻛﻤﻴﻨﻪ ﻛﺮدن ‪ ،l2-norm‬ﺑﺎزﻳﺎﺑﻲ را اﻧﺠﺎم ﻣﻲدادﻳﻢ‪ ،‬ﺧﻄﺎي ﺑﺎزﺳﺎزي ﺧﻴﻠﻲ زﻳﺎد ﻣﻲﺷﺪ)ﺷﻜﻞ ‪(5‬‬
‫ﺷﻜﻞ ‪.5‬ﻧﻤﺎﻳﺶ ﻧﺘﺎﻳﺞ ﺑﺎزﻳﺎﺑﻲ ﺳﻴﮕﻨﺎل ﺑﺎ اﺳﺘﻔﺎده از ﻛﻤﻴﻨﻪ ﻛﺮدن ‪ l1-norm‬و ‪l2-norm‬‬
‫‪15‬‬
‫‪ .7‬ﻛﺎرﺑﺮدﻫﺎي ‪:Compressed Sensing‬‬
‫از آن ﺟﺎ ﻛﻪ ﻓﺮآﻳﻨﺪ ﻧﻤﻮﻧﻪﺑﺮداري از ﻳﻚ ﺳﻴﮕﻨﺎل ﻣﻌﻤﻮﻻ ﺑﻪ ﺻﺮف وﻗﺖ و ﻫﺰﻳﻨﻪ ﺑﺎﻻﻳﻲ ﻧﻴﺎزﻣﻨﺪ اﺳﺖ‪ ،‬اﻳﻦ ﻛﻪ‬
‫ﺑﺘﻮاﻧﻴﻢ ﺗﻌﺪاد ﻧﻤﻮﻧﻪﻫﺎي ﻻزم ﺑﺮاي ﺑﺎزﻳﺎﺑﻲ ﻳﻚ ﺳﻴﮕﻨﺎل ﺑﺎ دﻗﺖ ﺑﺎﻻ را ﻛﺎﻫﺶ دﻫﻴﻢ‪ ،‬اﻣﺮي ﻣﻄﻠﻮب اﺳﺖ و ﺑﺎﻋﺚ‬
‫ﺻﺮف ﺟﻮﻳﻲ در وﻗﺖ و ﻫﺰﻳﻨﻪ ﻣﻲﺷﻮد‪ .‬اﻣﺎ ﺷﺮط ﻻزم ﺑﺮاي اﻳﻦ ﻛﻪ ﺑﺘﻮاﻧﻴﻢ ‪ CS‬را در ﻳﻚ ﺣﻮزه ﺑﻪ ﻛﺎر ﺑﺒﺮﻳﻢ‪ ،‬اﻳﻦ‬
‫اﺳﺖ ﻛﻪ در آن ﺣﻮزه‪ ،‬ﺳﻴﮕﻨﺎلﻫﺎي ﻣﻮرد ﻧﻈﺮ ﻣﺎ در ﭘﺎﻳﻪاي ‪ sparse‬ﺑﺎﺷﻨﺪ‪ .‬ﻣﺎ دو ﻧﻤﻮﻧﻪ از ﻛﺎرﺑﺮدﻫﺎي ‪ CS‬را‬
‫ﻣﻌﺮﻓﻲ ﻣﻲﻛﻨﻴﻢ ﻛﻪ اﻣﺮوزه در ﺻﻨﻌﺖ ﺑﻪ ﻛﺎر ﻣﻲروﻧﺪ‪.‬‬
‫‪MRI .7.1‬‬
‫ﻳﻜﻲ از ﺣﻮزهﻫﺎﻳﻲ ﻛﻪ از ‪ CS‬اﺳﺘﻔﺎدهﻫﺎي زﻳﺎدي ﺷﺪه اﺳﺖ‪ MRI6 ،‬اﺳﺖ‪ .‬در ‪ ،MRI‬ﻋﻜﺲﻫﺎي ﮔﺮﻓﺘﻪ ﺷﺪه در‬
‫ﭘﺎﻳﻪ ‪ sparse ،wavelet‬ﻫﺴﺘﻨﺪ‪ .‬در ‪ MRI‬ﻋﻜﺲ ﺑﺮداري ﺑﻪ اﻳﻦ ﺻﻮرت اﻧﺠﺎم ﻣﻲﺷﻮد ﻛﻪ اﺑﺘﺪا ﺑﺎ اﺳﺘﻔﺎده از ﻳﻚ‬
‫ﻣﻴﺪان ﻣﻐﻨﺎﻃﻴﺴﻲ ﺛﺎﺑﺖ ﻗﻮي‪ spin ،‬ﺗﻤﺎﻣﻲ ﻣﻮﻟﻜﻮلﻫﺎي آب و ﭼﺮﺑﻲ در ﻳﻚ ﺣﻮزه ﻣﻜﺎﻧﻲ ﺧﺎص از ﺑﺪن را در ﻳﻚ‬
‫راﺳﺘﺎ ﻗﺮار ﻣﻲدﻫﻨﺪ‪ ،‬ﺳﭙﺲ ﺑﺎ اﺳﺘﻔﺎده از ﻳﻚ ﻣﻴﺪان ﻣﻐﻨﺎﻃﻴﺴﻲ ﻣﺘﻐﻴﺮ‪ ،‬اﻳﻦ ﻣﻮﻟﻜﻮلﻫﺎ را ﺗﺤﺮﻳﻚ ﻣﻲﻛﻨﻨﺪ ﺗﺎ‬
‫ﻫﺮﻛﺪام ﺑﺎ ﻳﻚ ﻓﺎز ﺧﺎص و ﻳﻚ ﻓﺮﻛﺎﻧﺲ ﻣﺸﺨﺺ ﺷﺮوع ﺑﻪ ﭼﺮﺧﺶ ﻛﻨﻨﺪ‪ .‬در اﻳﻦ ﻣﺮﺣﻠﻪ ﻫﺮ ﻛﺪام از ﻣﻮﻟﻜﻮلﻫﺎ‬
‫ﻃﺒﻖ راﺑﻄﻪ ‪ ،_ `a‬ﻛﻪ‬
‫`‬
‫ﺑﻪ ﻧﻮع ﻣﻮﻟﻜﻮل ﺑﺴﺘﮕﻲ دارد و ‪ B‬ﺑﺰرﮔﻲ ﻣﻴﺪان ﻣﻐﻨﺎﻃﻴﺴﻲ اﺳﺖ‪ ،‬ﻳﻚ رزوﻧﺎﻧﺲ‬
‫ﻓﺮﻛﺎﻧﺴﻲ _ ﻛﺴﺐ ﻣﻲﻛﻨﺪ‪ .‬ﺣﺎل ﺑﺮاي اﻳﻦ ﻛﻪ ﺑﺘﻮاﻧﻴﻢ از آنﻫﺎ ﻧﻤﻮﻧﻪ ﺑﺮداري ﻛﻨﻴﻢ‪ ،‬ﺑﺎﻳﺪ ﻣﻴﺪان ﻣﻐﻨﺎﻃﻴﺴﻲ را ﺣﺬف‬
‫ﻛﻨﻴﻢ و اﺟﺎزه دﻫﻴﻢ ﺗﺎ ﻫﺮ ﻛﺪام از ﻣﻮﻟﻜﻮلﻫﺎ ﺑﻪ ﺣﺎﻟﺖ اوﻟﻴﻪ ﺧﻮدﺷﺎن ﺑﺮﮔﺮدﻧﺪ و ﻓﻮﺗﻮنﻫﺎﻳﻲ ﺑﺎ ﻓﺮﻛﺎﻧﺲ‬
‫_‬
‫ﻣﺘﺼﺎﻋﺪ‬
‫ﻛﻨﻨﺪ ﺗﺎ ﺑﺘﻮاﻧﻴﻢ آنﻫﺎ را ﺗﺸﺨﻴﺺ دﻫﻴﻢ‪ .‬ﻓﺮآﻳﻨﺪ ﻧﻤﻮﻧﻪ ﺑﺮداري در ‪ ،MRI‬ﻓﺮآﻳﻨﺪي زﻣﺎن ﺑﺮ اﺳﺖ زﻳﺮا ﺑﺎﻳﺪ در ﻫﺮ‬
‫دﻓﻌﻪ ﻛﻪ ﻣﻴﺪان ‪ B‬را ﻗﻄﻊ ﻣﻲﻛﻨﻴﻢ‪ ،‬ﻣﻨﺘﻈﺮ ﺑﻤﺎﻧﻴﻢ ﺗﺎ ﻣﻮﻟﻜﻮلﻫﺎ ﺑﻪ ﺣﺎﻟﺖ ﭘﺎﻳﺪار ﺧﻮد ﺑﺮﮔﺮدﻧﺪ ﺗﺎ ﺑﺘﻮاﻧﻴﻢ آنﻫﺎ را‬
‫ﺗﺸﺨﻴﺺ دﻫﻴﻢ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ‪ ،‬در ﺻﻮرﺗﻲ ﻛﻪ ﺑﺘﻮاﻧﻴﻢ ﺑﺎ ﺗﻌﺪاد ﻛﻤﺘﺮي ﻧﻤﻮﻧﻪ‪ ،‬ﺳﻴﮕﻨﺎل را ﺑﺎ ﻛﻴﻔﻴﺘﻲ ﺑﺎزﻳﺎﺑﻲ ﻛﻨﻴﻢ ﻛﻪ‬
‫ﻗﺪرت ﺗﺸﺨﻴﺺ ﭘﺰﺷﻚ را ﻛﺎﻫﺶ ﻧﺪﻫﺪ‪ ،‬در ﻣﺪت زﻣﺎن ﻻزم ﺑﺮاي ‪ ،MRI‬ﻳﻚ ﻛﺎﻫﺶ ﺧﻴﻠﻲ زﻳﺎدي اﻳﺠﺎد ﻛﺮدهاﻳﻢ‪.‬‬
‫ﻛﻪ ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ‪ sparse‬ﺑﻮدن ﻋﻜﺲﻫﺎي ‪ MRI‬در ﭘﺎﻳﻪ ‪ ،wavelet‬اﻳﻦ ﻛﺎر ﺗﻮﺳﻂ ‪ CS‬اﻧﺠﺎم ﺷﺪه اﺳﺖ ﻛﻪ ﺑﺎﻋﺚ‬
‫ﻛﺎﻫﺶ زﻣﺎن ﻋﻜﺲﺑﺮداري ﺷﺪه اﺳﺖ‪.‬‬
‫‪Magnetic Resonance Imaging‬‬
‫‪16‬‬
‫‪6‬‬
‫‪ .7.2‬دورﺑﻴﻦ ﺗﻚ ﭘﻴﻜﺴﻠﻲ‪:‬‬
‫ﺑﻪ ﻋﻨﻮان ﻳﻚ ﻧﻤﻮﻧﻪ دﻳﮕﺮ از ﻛﺎرﺑﺮدﻫﺎي ‪ ،CS‬ﻓﺮض ﻛﻨﻴﺪ ﻛﻪ ﺑﺨﻮاﻫﻴﺪ در ﻣﺤﺪوده ﻓﺮﻛﺎﻧﺲﻫﺎي ‪ IR7‬ﻋﻜﺲﺑﺮداري‬
‫ﻛﻨﻴﺪ و ﻋﻜﺲﻫﺎي ﺷﻤﺎ ﻧﻴﺰ ﻣﺎﻧﻨﺪ ﻋﻜﺲﻫﺎي ﻃﺒﻴﻌﻲ‪ ،‬در ﻳﻚ ﭘﺎﻳﻪاي ﻣﺜﻞ ‪ sparse ،wavelet‬ﻫﺴﺘﻨﺪ‪ .‬از آن ﺟﺎ‬
‫ﻛﻪ ﻣﻴﺰان اﻧﺮژي ﺳﻴﮕﻨﺎلﻫﺎي اﻳﻦ ﺣﻮزه ﻓﺮﻛﺎﻧﺴﻲ‪ ،‬ﻛﻢﺗﺮ از ﻣﻴﺰان اﻧﺮژي ﻻزم ﺑﺮاي ﺗﺎﺛﻴﺮﮔﺬاري روي ﺳﻴﻠﻴﺴﻴﻢ‬
‫اﺳﺖ‪ ،‬از ﺗﻜﻨﻮﻟﻮژي ‪ CMOS‬راﻳﺞ در دورﺑﻴﻦﻫﺎي دﻳﺠﻴﺘﺎل ﻧﻤﻲﺗﻮان ﺑﺮاي ﻧﻤﻮﻧﻪﺑﺮداري اﺳﺘﻔﺎده ﻛﺮد‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺎﻳﺪ‬
‫از ﻋﻨﺎﺻﺮ ﮔﺮانﻗﻴﻤﺘﻲ ﻣﺜﻞ ژرﻣﺎﻧﻴﻢ ﻛﻪ ﺑﻪ ﺳﻴﮕﻨﺎلﻫﺎي ﺣﻮزه ‪ IR‬ﺣﺴﺎس ﻫﺴﺘﻨﺪ‪ ،‬اﺳﺘﻔﺎده ﻛﺮد ﻛﻪ اﻳﻦ ﺑﺎﻋﺚ‬
‫ﻣﻲﺷﻮد ﻫﺰﻳﻨﻪ ﺗﻮﻟﻴﺪ ﻳﻚ دورﺑﻴﻦ از ﭼﻨﺪ ﺻﺪ دﻻر ﺑﻪ ﭼﻨﺪﻳﻦ ﻫﺰار دﻻر اﻓﺰاﻳﺶ ﭘﻴﺪا ﻛﻨﺪ‪ .‬اﮔﺮ ﺑﺘﻮاﻧﻴﻢ‪ ،‬ﺗﻌﺪاد‬
‫ﻧﻤﻮﻧﻪﻫﺎي ﻻزم را ﺑﻪ ﮔﻮﻧﻪاي ﻛﻤﺘﺮ ﻛﻨﻴﻢ ﻛﻪ ﺑﻪ ﺗﻌﺪاد ﺣﺲﮔﺮﻫﺎي ﻛﻤﺘﺮي ﻧﻴﺎز داﺷﺘﻪ ﺑﺎﺷﻴﻢ‪ ،‬ﻣﻲﺗﻮاﻧﻴﻢ ﻫﺰﻳﻨﻪ‬
‫ﻧﻤﻮﻧﻪﺑﺮداري را ﺑﻪ ﻃﻮر ﭼﺸﻢﮔﻴﺮي ﻛﺎﻫﺶ دﻫﻴﻢ ﻛﻪ اﻳﻦ ﻛﺎر ﺗﻮﺳﻂ ‪ single pixel camera‬ﻛﻪ در اداﻣﻪ‬
‫درﻣﻮرد آن ﺻﺤﺒﺖ ﻣﻲﻛﻨﻴﻢ‪ ،‬اﻧﺠﺎم ﺷﺪه اﺳﺖ‪.‬‬
‫ﻣﺒﻨﺎي ﻛﺎر دورﺑﻴﻦ ﺗﻚ ﭘﻴﻜﺴﻠﻲ‪ compressed sensing ،‬اﺳﺖ‪ .‬اﻳﻦ دورﺑﻴﻦ ﺑﻪ ﺟﺎي اﻳﻦ ﻛﻪ ﻣﻘﺪار ﻧﻤﻮﻧﻪﻫﺎي‬
‫ﭘﻴﻜﺴﻠﻲ ﻋﻜﺲ را اﻧﺪازهﮔﻴﺮي ﻛﻨﺪ‪ ،‬در ﻫﺮ ﻣﺮﺣﻠﻪ‪ ،‬ﺿﺮب داﺧﻠﻲ ﺗﺼﻮﻳﺮ را ﺑﺎ ﻳﻚ ﺗﺎﺑﻊ ﺗﺼﺎدﻓﻲ ‪ f‬ﻣﺤﺎﺳﺒﻪ ﻣﻲﻛﻨﺪ و‬
‫در ﻧﻬﺎﻳﺖ ﺑﺎ اﺳﺘﻔﺎده از اﻳﻦ ﻧﻤﻮﻧﻪ و ﺑﺎ روشﻫﺎي ﻏﻴﺮ ﺧﻄﻲ ﻣﺎﻧﻨﺪ ‪ ،Basis Pursuit‬ﺳﻴﮕﻨﺎل اﺻﻠﻲ را ﺑﺎزﺳﺎزي‬
‫ﻣﻲﻛﻨﺪ‪ .‬اﻳﻦ دورﺑﻴﻦ ﺑﺮاي ﻧﻤﻮﻧﻪﮔﻴﺮي‪ ،‬ﺗﻨﻬﺎ از ﻳﻚ ‪ photon detector‬اﺳﺘﻔﺎده ﻣﻲﻛﻨﺪ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ‪ ،‬در‬
‫ﻛﺎرﺑﺮدﻫﺎﻳﻲ ﻣﺜﻞ ﻋﻜﺲﺑﺮداري در ﺣﻮزه ‪ IR‬ﻛﻪ ﺣﺲﮔﺮﻫﺎ ﺧﻴﻠﻲ ﮔﺮانﻗﻴﻤﺖ ﻫﺴﺘﻨﺪ‪ ،‬ﺑﺎ اﺳﺘﻔﺎده از اﻳﻦ روش‪،‬‬
‫ﻗﻴﻤﺖ دﺳﺘﮕﺎه ﺑﻪ ﻃﻮر ﭼﺸﻢﮔﻴﺮي ﻛﺎﻫﺶ ﻣﻲﻳﺎﺑﺪ‪ .‬ﻫﻤﺎنﻃﻮر ﻛﻪ در ﺷﻜﻞ زﻳﺮ ﻣﺸﺎﻫﺪه ﻣﻲﻛﻨﻴﺪ‪ ،‬اﻳﻦ دورﺑﻴﻦ از ﺳﻪ‬
‫ﻗﺴﻤﺖ اﺻﻠﻲ ﺗﺸﻜﻴﻞ ﺷﺪه اﺳﺖ ﻛﻪ در زﻳﺮ ﺑﻪ آنﻫﺎ ﻣﻲﭘﺮدازﻳﻢ‪.‬‬
‫ﺷﻜﻞ ‪ .6‬ﺷﻤﺎي ﻛﻠﻲ ﻳﻚ دورﺑﻴﻦ ﺗﻚ ﭘﻴﻜﺴﻠﻲ‬
‫‪Infra Red‬‬
‫‪17‬‬
‫‪7‬‬
‫‪ :(Digital Micromirror Device(DMD .1‬ﻳﻚ آراﻳﻪ از آﻳﻨﻪﻫﺎي ﺑﺴﻴﺎر رﻳﺰ اﺳﺖ )در ﺣﺪود اﻧﺪازه ﻳﻚ‬
‫ﺑﺎﻛﺘﺮي( ﻛﻪ در ﻫﺮ ﻟﺤﻈﻪ ﻫﺮ آﻳﻨﻪ ﻣﻲﺗﻮاﻧﺪ در راﺳﺘﺎي ‪ o10+‬ﻳﺎ ‪ o10-‬ﻧﺴﺒﺖ ﺑﻪ ﺳﻄﺢ اﻓﻘﻲ ﻗﺮار ﺑﮕﻴﺮد‪ .‬ﻛﻪ‬
‫ﻫﻤﺎن ﻃﻮر ﻛﻪ در ﺷﻜﻞ ‪ 7‬ﻣﻲﺑﻴﻨﻴﺪ‪ ،‬در ﺻﻮرﺗﻲ ﻛﻪ در راﺳﺘﺎي ‪ o10+‬ﻗﺮار ﺑﮕﻴﺮد‪ ،‬ﻧﻮر ﻣﻮﺟﻮد در آن ﻣﺤﻞ‬
‫ﺑﻪ ﻟﻨﺰ دو ﺗﺎﺑﺎﻧﺪه ﻣﻲﺷﻮد و در ﻏﻴﺮ اﻳﻦ ﺻﻮرت ﺑﻪ ﻃﺮﻓﻲ دﻳﮕﺮ ﺗﺎﺑﺎﻧﺪه ﻣﻲﺷﻮد‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ اﮔﺮ ! ‪DMD‬‬
‫ﺑﺎﺷﺪ‪ ،‬ﻗﺮار ﮔﺮﻓﺘﻦ آﻳﻨﻪ ﻣﻮﺟﻮد در ﺳﻄﺮ ‪i‬ام و ﺳﺘﻮن ‪j‬ام‪ ،‬در راﺳﺘﺎي ‪ ،o10+‬ﻣﻌﺎدل ﻳﻚ ﺷﺪن ﺗﺎﺑﻊ ‪ f‬در آن‬
‫)‪ (i,j‬اﺳﺖ و ﻗﺮار ﮔﺮﻓﺘﻦ آن در راﺳﺘﺎي ‪ o10-‬ﻣﻌﺎدل ﺻﻔﺮ ﺷﺪن ﺗﺎﺑﻊ ‪ f‬در ﻧﻘﻄﻪ )‪ (i,j‬اﺳﺖ ﻛﻪ در اﻳﻦ ﺟﺎ‬
‫‪ ،f‬ﺗﺎﺑﻌﻲ اﺳﺖ ﻛﻪ در ﺳﻴﮕﻨﺎل ﻣﻮرد ﻧﻈﺮ ﺿﺮب داﺧﻠﻲ ﻣﻲﺷﻮد‪ .‬ﻧﻮري ﻛﻪ ﺣﺎﺻﻞ ﺿﺮب داﺧﻠﻲ ﺳﻴﮕﻨﺎل‬
‫ﺗﺼﻮﻳﺮ و ‪ f‬اﺳﺖ‪ ،‬ﺗﻮﺳﻂ ‪ ،photodiode circuit‬ﺛﺒﺖ ﻣﻲﺷﻮد و ﺑﻪ ﻫﻤﺮاه ‪ fi‬ﺑﺮاي ﺑﺎزﻳﺎﺑﻲ ﺳﻴﮕﻨﺎل در‬
‫ﻣﺮاﺣﻞ ﺑﻌﺪ‪ ،‬در ﻳﻚ ﺣﺎﻓﻈﻪ ذﺧﻴﺮه ﻣﻲﺷﻮد‪.‬‬
‫ﺷﻜﻞ ‪ .7‬دورﺑﻴﻦ ﺗﻚ ﭘﻴﻜﺴﻠﻲ‬
‫ﺷﻜﻞ ‪ .8‬ﺳﺎﺧﺘﺎر ﻳﻜﻲ از رﻳﺰآﻳﻨﻪﻫﺎي ‪DMD‬‬
‫‪18‬‬
‫‪ :Random Number Generator .2‬ﺟﻬﺖ ﻗﺮار ﮔﻴﺮي آﻳﻨﻪﻫﺎي ‪ ،DMD‬ﺗﻮﺳﻂ ﻳﻚ ﺗﻮﻟﻴﺪ ﻛﻨﻨﺪه اﻋﺪاد‬
‫ﺷﺒﻪ ﺗﺼﺎدﻓﻲ ﺗﻌﻴﻴﻦ ﻣﻲﺷﻮد‪ .‬ﺑﻪ اﻳﻦ ﺻﻮرت ﻛﻪ ‪ ،RNG‬ﻳﻚ ﻣﺎﺗﺮﻳﺲ ﺗﺼﺎدﻓﻲ‬
‫!‬
‫از ﺻﻔﺮ و ﻳﻚﻫﺎ‬
‫ﺗﻮﻟﻴﺪ ﻣﻲﻛﻨﺪ و آنﻫﺎ را ﺑﻪ ‪ DMD‬ﻣﻲدﻫﺪ و ‪ ،DMD‬ﺟﻬﺖ آﻳﻨﻪﻫﺎ را ﺑﺮ ﻣﺒﻨﺎي ﻣﺎﺗﺮﻳﺲ ﮔﺮﻓﺘﻪ ﺷﺪه ‪ ،‬ﺑﻪ‬
‫ﺻﻮرت ﺧﻮاﺳﺘﻪ ﺷﺪه در ﻣﻲآورد‪.‬‬
‫‪ :photodiode circuit .3‬اﻳﻦ در واﻗﻊ ﻫﻤﺎن ﺗﻚ ﭘﻴﻜﺴﻞ اﺳﺖ ﻛﻪ ﻣﻴﺰان اﻧﺮژي ﻣﻮﺟﻮد در ﻓﻮﺗﻮن ﺗﺎﺑﻴﺪه‬
‫ﺷﺪه از ﺳﻄﺢ ‪ DMD‬را اﻧﺪازه ﻣﻲﮔﻴﺮد و آن را ﺑﻪ ‪ A/D‬ﻣﻲدﻫﺪ ﺗﺎ ﺑﻪ ﺻﻮرت ﻳﻚ ﻋﺪد دﻳﺠﻴﺘﺎل در‬
‫ﺳﻴﺴﺘﻢ ذﺧﻴﺮه ﺷﻮد‪.‬‬
‫ﺗﻔﺎوت اﺻﻠﻲ اﻳﻦ روش ﻋﻜﺲﺑﺮداري ﺑﺎ روش ﭘﻴﺸﻴﻦ ﻋﻜﺲﺑﺮداري در اﻳﻦ اﺳﺖ ﻛﻪ در روش ﭘﻴﺸﻴﻦ‪ ،‬ﻫﺮ ﭼﻪ‬
‫ﺗﻌﺪاد ﭘﻴﻜﺴﻞﻫﺎي ﺑﻴﺸﺘﺮي داﺷﺖ‪ ،‬ﺗﻌﺪاد ﻧﻤﻮﻧﻪﻫﺎي ﺑﻴﺸﺘﺮي ﺗﻮﻟﻴﺪ و ﺑﻨﺎﺑﺮاﻳﻦ ﺑﻪ ﻛﻴﻔﻴﺖ ﺑﻴﺸﺘﺮي ﻣﻲرﺳﻴﺪﻳﻢ‪.‬‬
‫اﻣﺎ در اﻳﻦ روش ﻧﻤﻮﻧﻪ ﺑﺮداري‪ ،‬ﻫﺮ ﭼﻪ ﻣﺪت زﻣﺎن ﻧﻤﻮﻧﻪ ﺑﺮداري را اﻓﺰاﻳﺶ دﻫﻴﻢ‪ ،‬ﺗﻌﺪاد ﻧﻤﻮﻧﻪﻫﺎﻳﻲ ﻛﻪ‬
‫ﻣﻲﮔﻴﺮﻳﻢ‪ ،‬اﻓﺰاﻳﺶ ﭘﻴﺪا ﻛﺮده و ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺎ ﻛﻴﻔﻴﺖ ﺑﻬﺘﺮي ﺑﺎزﺳﺎزي ﻋﻜﺲ را ﻣﻲﺗﻮاﻧﻴﻢ اﻧﺠﺎم دﻫﻴﻢ‪DMD .‬ﻫﺎي‬
‫اﻣﺮوزي‪ ،‬ﺑﺎ ﻓﺮﻛﺎﻧﺲ ‪ 30‬ﻛﻴﻠﻮﻫﺮﺗﺰ ﻣﻲﺗﻮاﻧﻨﺪ ﺗﻐﻴﻴﺮ ﺟﻬﺖ دﻫﻨﺪ و ﺑﻨﺎﺑﺮاﻳﻦ در ﻫﺮ ﺛﺎﻧﻴﻪ ﻣﺎ ﻣﻲﺗﻮاﻧﻴﻢ‪ ،‬ﺣﺪود‬
‫‪ 30/000‬ﻧﻤﻮﻧﻪ ﺑﺮدارﻳﻢ‪ .‬و از آن ﺟﺎ ﻛﻪ ﺑﺮاي ﺑﺎزﺳﺎزي ﻳﻚ ﺳﻴﮕﻨﺎل ‪ k-sparse‬ﺑﺎ دﻗﺖ ﺑﺎﻻ ﻧﻴﺎز ﺑﻪ‬
‫‪ (klog(n/k‬ﻧﻤﻮﻧﻪ دارﻳﻢ‪ ،‬اﻳﻦ دورﺑﻴﻦ ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﺗﺨﻤﻴﻦﻫﺎي ﻋﻤﻠﻲ ﺑﺮاي ‪ k‬در ﺗﺼﺎوﻳﺮ ﻃﺒﻴﻌﻲ‪ ،‬ﺑﺮاي‬
‫ﻧﻤﻮﻧﻪﺑﺮداري از ﻳﻚ ﺳﻴﮕﻨﺎل ﺳﻴﺎه ﺳﻔﻴﺪ ﺑﺎ اﻧﺪازه ‪،N=256!256‬ﺣﺪود ‪ N/50‬ﻧﻤﻮﻧﻪ ﺑﺮﻣﻲدارد‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ‪،‬‬
‫ﺑﺮاي ﻳﻚ ﻋﻜﺲ ‪ ،256 ! 256‬ﺣﺪود ‪ 1300‬ﻧﻤﻮﻧﻪ ﺑﺮﻣﻲدارد ﻛﻪ ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﺳﺮﻋﺖ ‪DMD‬ﻫﺎ‪ ،‬اﻳﻦ ﻓﺮآﻳﻨﺪ ﺣﺪود‬
‫ﻳﻚ ﺑﻴﺴﺘﻢ ﺛﺎﻧﻴﻪ ﻃﻮل ﻣﻲﻛﺸﺪ‪ .‬در ﺷﻜﻞ ‪ 9‬ﻳﻚ ﻧﻤﻮﻧﻪ از ﻋﻜﺲﻫﺎي ﮔﺮﻓﺘﻪ ﺷﺪه ﺗﻮﺳﻂ اﻳﻦ دورﺑﻴﻦ را ﻣﻲ‬
‫ﺑﻴﻨﻴﺪ‪.‬‬
‫ﺷﻜﻞ ‪ .9‬ﺗﺼﻮﻳﺮ ﺳﻤﺖ راﺳﺖ‪ :‬ﺗﺼﻮﻳﺮ ﮔﺮﻓﺘﻪ ﺷﺪه ﺗﻮﺳﻂ ‪ SPC‬ﺑﺎ ‪ 1300‬ﻧﻤﻮﻧﻪ‬
‫ﺗﺼﻮﻳﺮ ﺳﻤﺖ ﭼﭗ‪ :‬ﻳﻚ ﺗﺼﻮﻳﺮ ﺳﻴﺎه ﺳﻔﻴﺪ از ﺣﺮف ‪R‬‬
‫‪19‬‬
:‫ﺧﺬ‬Ĥ‫ﻣﻨﺎﺑﻊ و ﻣ‬
[1] A. Davenport, F. Duarte, C. Eldar, G. Kutyniok. Introduction to Compressed
Sensing 2011.
[2] E. Candes, B. Wakin. An Introduction To Compressive Sampling. IEEE Signal
Processing Magazine, 25(2), pp. 21 - 30, March 2008.
[3] F. Duarte, A. Davanport, D. Takhar, N. Laska, T. Sun, F. Kelly, G. Baraniuk. Single
Pixel Imaging via Compressive Sampling. IEEE Signal Processing Magazine, 25(2),
pp. 83 - 91, March 2008.
[4] D. Donoho. Compressed Sensing, IEEE Trans. Inform. Theory, vol. 52, no. 4, pp.
1289-1306, Apr.2006.
[5] J. Romberg. Imaging via Compressive Sampling. IEEE Signal Processing
Magazine, 25(2), pp. 14 - 20, March 2008.
20