اطلاعات کوانتومی/اصول گزیده‌ی کامپیوترهای کوانتومی/بخش سوم

بخش دوم بخش سوم بخش چهارم


برای آنکه بدانیم در فیزیک منظورمان از اطلاعات دقیقاً چیست، چند تعبیر نسبتاً متفاوت را از اطلاعات باید مد نظر داشت. این تعابیر عبارتد از:

۱) اطلاعات در غالب یک الگو

۲) اطلاعات در شکل ورودی حسی

۳) اطلاعات به مثابه تاثیری که منجر به یک تغیر شود

۴) اطلاعات به عنوان پیام

تعبیر پیام بودن اطلاعات به آنچه در محاسبات و اطلاعات کوانتومی مطرح می‌شود بسیار نزدیک است. پیام بودن مستلزم آن است که فرستنده‌ای به گیرنده‌ای مرتبط شود که مرتبط با بحث کانال‌های ارتباطی است. البته پارازیت‌ها را در این گروه قرار نمی‌دهیم زیرا مانع از جریان ارتباط شده و باعث بروز سوء تعبیر می‌شوند. اگر به اطلاعات صرفاً با دید پیام نگریسته شود، این پیام لزوماً نباید دقیق یا درست باشد. پس اطلاعات هر نوع پیامی است که فرستنده برای ایجاد کردن انتخاب می‌کند و البته آنرا از طریق خاصی می‌فرستد. اگر اطلاعات را به صورت پیام‌هایی که بین فرستنده و گیرنده منتقل می‌شوند فرض کنیم آنگاه می‌توانیم با معیاری آنها را اندازه‌گیری کرده و بسنجیم.

اندازه‌گیری اطلاعات در غالب پیام، نخستین بار در ۱۹۴۸ توسط " کلود شانن " در نظریه اطلاعات مطرح شد. به طور خلاصه وی پیشنهاد کرد که اگر فرستنده‌ای از یک مجموعه شامل N پیام با احتمال مساوی یکی را برای فرستادن انتخاب کند، در اینصورت اندازه " اطلاعاتی که با انتخاب یک پیام از مجموعه بوجود آمده " لگاریتم در مبنای ۲ عدد N است. انتخاب پایه لگاریتمی مطابق است با انتخاب یک واحد برای اندازه‌گیری اطلاعات. اگر از لگاریتم در پایه ۲ استفاده کنیم واحدهای حاصل را ارقام دودویی یا به اختصار بیت می‌نامیم.

با ورود فیزیک به عرصه محاسبات و اطلاعات تعابیر مطرح شده توسط شانن در غالب‌هایی فیزیکی قرار گرفتند. مهم ترین غالب به کار رفته داخل کردن مفهوم آنتروپی برای تولید نظریه اطلاعاتی جدید بود که در آن از مکانیک آماری کوانتومی استفاده می‌شود. مفهوم اساسی آنتروپی در نظریه اطلاعات در ارتباط با این مطلب است که یک سیگنال یا یک رخداد اتفاقی تا چه حد تصادفی است. به عبارت دیگر می‌توان پرسید که یک سیگنال چه میزان از اطلاعات را حمل می‌کند.

برای نمونه متنی را به انگلیسی در نظر بگیرید که با دنباله‌ای از حروف، فضاهای خالی و علائم نگارشی کد گذاری شده است (بنابراین، سیگنال ما در اینجا رشته‌ای از حروف است). چون نمی‌توانیم پیش بینی کنیم که کاراکتر بعدی دقیقاً چیست، این رشته (یا در واقع سیگنال) کاتوره‌ای است. آنتروپی در واقع معیاری از این کاتورگی است. آنتروپی یک منبع اطلاعاتی به معنای تعداد میانگین بیت‌ها به ازای علامت لازم برای کد گذاری آنها است. البته توجه به دو نکته ضروری است: اول آنکه بسیاری از بیت‌های داده‌ای ممکن است هیچ نوع اطلاعاتی را نرسانند و دوم اینکه مقدار آنتروپی همیشه عدد صحیحی از بیت‌ها نیست.

با معرفی اطلاعات فیشر به عنوان تعبیر نهایی فیزیکی اطلاعات، رهیافت به حداکثر رساندن اطلاعات فیزیکی از طریق تغییر دامنه احتمال سیستم، اصل اطلاعات فیزیکی فرین (EPI) در واقع ابزاری برای کشف قوانین خالص علم است. تا آنجا که به فیزیک مربوط می‌شود، قوانین طبیعی در غالب معادلات دیفرانسیل یا توابع توزیع آشکار می‌شوند، مانند تابع موج شرودینگر یا تابع توزیع فرمی- دیراک. اصل EPI بر این تفکر استوار است که مشاهده یک پدیده " منبعی " هرگز به طور کامل دقیق نیست. یعنی اطلاعات به حتم در گذر از منبع تا مشاهده شدن، گم می‌شوند.

مقدار بیشینه در اغلب مشاهدات کمینه است !! یعنی در مشاهداتی که انجام می‌دهیم همواره تلاش می‌کنیم تا به حداکثر اطلاعات توصیف کننده ساختار مورد نظر دست پیدا کنیم. مفهوم معرفی شده در این قسمت چکیده مختصری از مفهوم اطلاعات فیزیکی است. در نظریه اطلاعات کوانتومی، بسیاری از این موارد دستخوش تغییر می‌شوند.