اطلاعات کوانتومی/اصول کامپیوترهای کوانتومی/الگوریتمها و تصحیح خطا
اطلاعات کوانتومی | الگوریتمها و تصحیح خطا | تشدید مغناطیسی هسته |
مطمئنا، وقتی که عملیاتی به پایان رسیده، باید پاسخ آن بدست آید. یک اندازهگیری (خواندن) ساده اطلاعات حالت superposition سیستم را از بین میبرد و آن را در یکی از دو حالت قرار میدهد. متاسفانه، به ندرت ممکن است که بتوان از پیش تعیین کرد که این کدام حالت است (۰ یا ۱)، و این یک مشکل است. هدف این است که اطمینان حاصل شود که خواندن اطلاعات پاسخ مورد نظر را تولید میکند، و این هدف با استفاده از پدیده تداخل کوانتومی قابل دستیابی است.
هر یک از حالتهای superposition دارای احتمالی مربوط به آن است که یک رفتار موج مانند دارد، و میتواند با احتمالهای حالتهای دیگر به طور سازنده یا ویرانگر تداخل کند. گرفتن پاسخ مورد نظر از یک محاسبه به معنی پردازش اطلاعات به صورتی است که در پایان، پاسخهای نامطلوب به طور ویرانگر تداخل کنند و فقط حالت مورد نظر یا تعداد کمی از حالتهای نامطلوب را باقی گذارند. این پردازش الگوریتم کوانتومی نامیده میشود، و طراحی آن فیزیکدانان، ریاضیدانان و متخصصین کامپیوتر را به مبارزه میطلبد. سپس یک اندازهگیری نهایی پاسخ مورد نظر را، یا در مورد وجود چند حالت نهایی، یک سری اندازهگیری توزیع احتمال آنها را که از آن پاسخ مورد نظر را میتوان محاسبه نمود، بدست میدهد.
الگوریتمهای کوانتومی این پتانسیل را دارند که به طور چشمگیری از همتاهای مرسوم خود سریعتر باشند. یک مثال خوب، الگوریتمی برای جستجو در لیستها است که توسط کراور (Lov Crover) در آزمایشگاه بل Lucent Technologies توسعه داده شد. مسئله پیدا کردن اسم فردی با شماره تلفن معین در یک دفترچه تلفن بود. اگر دفترچه دارای N درایه باشد، برای پیدا کردن آن به طور متوسط باید تا درایهها را جستجو کرد. الگوریتم کوانتومی کراور بهتر عمل میکند و اسم مورد نظر را با جستجوی به طور متوسط N √ درایه پیدا میکند؛ بنابراین برای یک دفترچه با ۱۰۰۰۰ اسم، به جای ۵۰۰۰ مرحله، به ۱۰۰ مرحله نیاز دارد.
این الگوریتم به این صورت کار میکند که اول یک حالت superposition از تمام ۱۰۰۰۰ درایه میسازد که در آن هر درایه احتمال یکسانی در ظاهر شدن به عنوان پاسخ در اندازه گیزی که روی سیستم انجام میشود، دارد. سپس برای افزایش احتمال اندازهگیری که درایه مورد نظر را تولید میکند، روی superposition یک سری عملیاتهای کوانتومی انجام میشود که درایه مورد نظر را تشخیص داده و شانس آن را برای ظاهر شدن افزایش میدهد. (بیاد داشته باشید که تشخیص ممکن است چون شماره تلفن را دارید ولی اسم را ندارید)
اگر مقادیر superpose شده و موجهای احتمال خیلی دور از عقل به نظر نمیرسند، پدیده دیگری در علم جدید اطلاعات کوانتومی برجسته شده است. در دهه ۳۰، دانشمندان به شدت بر سر اینکه آیا آنچه مکانیک کوانتومی پیش بینی کرده بود وجود واقعی داشت یا آیا عجیب بودن آن به دلیل نقصهایی در تئوری بود، بحث میکردند. بویژه آلبرت انیشتن نمیتوانست قبول کند که جهان بر اساس مکانیک کوانتومی ادعا شده، ساخته شده بود؛ بنابراین با همکارانش بوریس پودولسکی (Boris Podolsky) و ناتان روزن (Nathan Rosen)، او یک آزمایش ذهنی برای پیدا کردن نقصهایی در تئوری جدید طرح کرد.
این آزمایش ذهنی روی رفتار یک جفت ذره، که بر طبق نظریه کوانتوم، به هم متصل (وابسته) هستند به صورتی که هیچ نظیری در جهان کلاسیک ندارد، متمرکز میشود. اگر یکی از آن دو ذره را تکان دهید به نظر میرسد که دیگری نیز، بدون توجه به اینکه ممکن است چقدر دور باشد، همزمان این اثر را احساس میکند. این سه دانشمند نشان دادند که این عملیات شامل عبور سیگنالی با سرعتی بالاتر از نور بین دو ذره میباشد، یک امر غیر ممکن. نتیجه آنها به عنوان پارادوکس EPR (Einstein-Podolsky-Rosen) و دو ذره وابسته به عنوان جفتهای EPR معروف گردید.
این بحث توسط جان بل (John Bell)، یک نظریهپرداز در CERN، آزمایشگاه اروپایی برای فیزیک ذرات، و فیزیکدان فرانسوی، الین اسپکت (Alain Aspect) برطرف شد. آنها ثابت کردند که این دوقلوهای بهم چسبیده دنیای کوانتوم، جفتهای EPR، در حقیقت همانطور که مکانیک کوانتومی پیش بینی کرده بود، رفتار میکنند؛ ولیکن، آزمایش همچنین نشان داد که هیچ سیگنالی سریعتر از نور وجود ندارد و اینکه این وابستگی نمیتواند برای ارتباطات با سرعت مافوق نور به کار برده شود. به جز ارتباط برقرار کردن، جفتهای EPR، دارای هستی یکسان، و سرنوشت یکسانی هستند. نظریه وابستگی هم اکنون یکی از پدیدههای کلیدی است که در پردازش اطلاعات کوانتومی از آن استفاده میشود.
امروزه آزمایش EPR تقریباً روزانه در سراسر جهان انجام میشود. اگر ساختن این وابستگی و superposition یک اتفاق معمولی در مقایسه با ۱۰ سال پیش شده باشد، اطلاعات کوانتومی به صورت یک چیز ناپایدار، باقی مانده است. کنشهای متقابل معمولی با محیط، qubitها و اطلاعاتی را که شامل هستند، نابود میکنند، که به آن decoherence گویند. (مخالف آن، coherence، توانایی qubit در نگهداری ویژگیهای کوانتومی به صورت superposition است) اگر اطلاعات کوانتومی قرار است که وارد علم کامپیوتر شود، یک عملیات تصحیح خطا برای محافظت از decoherence مورد نیاز است.
در ابتدا، فیزیکدانان معتقد بودند که چنین تکنیکی غیر ممکن است، چون پیدا و تصحیح کردن خطاها یعنی اندازهگیری حالت سیستم کوانتومی و در نتیجه از بین بردن اطلاعاتی که ذخیره کرده است. در اوایل دهه ۹۰ داسچ نشان داده بود که این مورد (از بین رفتن اطلاعات) نیاز ندارد که وجود داشته باشد؛ و در ۱۹۹۴ آندره آستین (Andrew Steane) در دانشگاه آکسفورد و پیتر شور (Peter Shore) در آزمایشگاه بل AT&T، هر کدام بطور مستقل الگوریتمهای تصحیح خطای کوانتومی عملی را کشف کردند.
مشکل شبیه دوباره تولید کردن پیامی است که در جایی دیگر تولید شده است. اگر این پیام از طریق کانالی فرستاده و یا در مکانی ذخیره شود که به اندازهای دارای نویز باشد که در نتیجه بعضی بیتهای آن تغییر کند، چگونه ممکن است که گیرنده پیام بتواند آن را تشخیص دهد؟ بوسیله اضافه کردن بیتهای زائد به پیام بمنظور اینکه فرستنده بتواند بیتهای تغییر یافته را تصحیح کند.
شور و آستین به معادل کوانتومی آن یعنی سه بار فرستادن یک بیت مشابه رسیدند. به این بیتهای اضافی، بیتهای کمکی (ancillas) گویند. خواندن این qubitها به گیرنده میگوید که چه خطاهایی رخ داده و چگونه qubitهایی که قسمتی از پیام هستند را تصحیح کند.