اطلاعات کوانتومی/اصول گزیدهی کامپیوترهای کوانتومی/بخش سوم
بخش دوم | بخش سوم | بخش چهارم |
برای آنکه بدانیم در فیزیک منظورمان از اطلاعات دقیقاً چیست، چند تعبیر نسبتاً متفاوت را از اطلاعات باید مد نظر داشت. این تعابیر عبارتد از:
۱) اطلاعات در غالب یک الگو
۲) اطلاعات در شکل ورودی حسی
۳) اطلاعات به مثابه تاثیری که منجر به یک تغیر شود
۴) اطلاعات به عنوان پیام
تعبیر پیام بودن اطلاعات به آنچه در محاسبات و اطلاعات کوانتومی مطرح میشود بسیار نزدیک است. پیام بودن مستلزم آن است که فرستندهای به گیرندهای مرتبط شود که مرتبط با بحث کانالهای ارتباطی است. البته پارازیتها را در این گروه قرار نمیدهیم زیرا مانع از جریان ارتباط شده و باعث بروز سوء تعبیر میشوند. اگر به اطلاعات صرفاً با دید پیام نگریسته شود، این پیام لزوماً نباید دقیق یا درست باشد. پس اطلاعات هر نوع پیامی است که فرستنده برای ایجاد کردن انتخاب میکند و البته آنرا از طریق خاصی میفرستد. اگر اطلاعات را به صورت پیامهایی که بین فرستنده و گیرنده منتقل میشوند فرض کنیم آنگاه میتوانیم با معیاری آنها را اندازهگیری کرده و بسنجیم.
اندازهگیری اطلاعات در غالب پیام، نخستین بار در ۱۹۴۸ توسط " کلود شانن " در نظریه اطلاعات مطرح شد. به طور خلاصه وی پیشنهاد کرد که اگر فرستندهای از یک مجموعه شامل N پیام با احتمال مساوی یکی را برای فرستادن انتخاب کند، در اینصورت اندازه " اطلاعاتی که با انتخاب یک پیام از مجموعه بوجود آمده " لگاریتم در مبنای ۲ عدد N است. انتخاب پایه لگاریتمی مطابق است با انتخاب یک واحد برای اندازهگیری اطلاعات. اگر از لگاریتم در پایه ۲ استفاده کنیم واحدهای حاصل را ارقام دودویی یا به اختصار بیت مینامیم.
با ورود فیزیک به عرصه محاسبات و اطلاعات تعابیر مطرح شده توسط شانن در غالبهایی فیزیکی قرار گرفتند. مهم ترین غالب به کار رفته داخل کردن مفهوم آنتروپی برای تولید نظریه اطلاعاتی جدید بود که در آن از مکانیک آماری کوانتومی استفاده میشود. مفهوم اساسی آنتروپی در نظریه اطلاعات در ارتباط با این مطلب است که یک سیگنال یا یک رخداد اتفاقی تا چه حد تصادفی است. به عبارت دیگر میتوان پرسید که یک سیگنال چه میزان از اطلاعات را حمل میکند.
برای نمونه متنی را به انگلیسی در نظر بگیرید که با دنبالهای از حروف، فضاهای خالی و علائم نگارشی کد گذاری شده است (بنابراین، سیگنال ما در اینجا رشتهای از حروف است). چون نمیتوانیم پیش بینی کنیم که کاراکتر بعدی دقیقاً چیست، این رشته (یا در واقع سیگنال) کاتورهای است. آنتروپی در واقع معیاری از این کاتورگی است. آنتروپی یک منبع اطلاعاتی به معنای تعداد میانگین بیتها به ازای علامت لازم برای کد گذاری آنها است. البته توجه به دو نکته ضروری است: اول آنکه بسیاری از بیتهای دادهای ممکن است هیچ نوع اطلاعاتی را نرسانند و دوم اینکه مقدار آنتروپی همیشه عدد صحیحی از بیتها نیست.
با معرفی اطلاعات فیشر به عنوان تعبیر نهایی فیزیکی اطلاعات، رهیافت به حداکثر رساندن اطلاعات فیزیکی از طریق تغییر دامنه احتمال سیستم، اصل اطلاعات فیزیکی فرین (EPI) در واقع ابزاری برای کشف قوانین خالص علم است. تا آنجا که به فیزیک مربوط میشود، قوانین طبیعی در غالب معادلات دیفرانسیل یا توابع توزیع آشکار میشوند، مانند تابع موج شرودینگر یا تابع توزیع فرمی- دیراک. اصل EPI بر این تفکر استوار است که مشاهده یک پدیده " منبعی " هرگز به طور کامل دقیق نیست. یعنی اطلاعات به حتم در گذر از منبع تا مشاهده شدن، گم میشوند.
مقدار بیشینه در اغلب مشاهدات کمینه است !! یعنی در مشاهداتی که انجام میدهیم همواره تلاش میکنیم تا به حداکثر اطلاعات توصیف کننده ساختار مورد نظر دست پیدا کنیم. مفهوم معرفی شده در این قسمت چکیده مختصری از مفهوم اطلاعات فیزیکی است. در نظریه اطلاعات کوانتومی، بسیاری از این موارد دستخوش تغییر میشوند.