Full Homomorphic Encryption and its Application in Machine Learning
Mehrimah amiriرمزنگاری همومورفیک کامل (Full Homomorphic Encryption یا FHE) امکان انجام محاسبات روی دادههای رمزنگاریشده را فراهم میکند، به گونهای که عملیاتهایی مثل جمع و ضرب حتی در حالت رمزنگاریشده حفظ میشوند. در اینجا خلاصهای از نحوه عملکرد FHE در زمینه یادگیری ماشین و چالشهای احتمالی آن آورده شده است:
نحوه کار FHE:
در FHE این امکان را فراهم میکند که محاسبات چندجملهای روی دادههای رمزنگاریشده بدون نیاز به رمزگشایی انجام شود. اگر ( P ) یک تابع چندجملهای (مثل یک مدل یادگیری ماشین) باشد، رابطه زیر را داریم:
P(E(a)) = E(P(a))
در اینجا( E) تابع رمزنگاری و( D ) تابع رمزگشایی است. پس از انجام محاسبه، میتوانیم نتیجه رمزنگاریشده را رمزگشایی کرده و همان خروجی را بگیریم که گویی دادهها اصلاً رمزنگاری نشدهاند:
D(P(E(a))) = P(a)
این ویژگی اهمیت زیادی دارد زیرا امکان آموزش و استنتاج مدلهای یادگیری ماشین روی دادههای رمزنگاریشده را فراهم میکند و این میتواند بهبود چشمگیری در حفظ حریم خصوصی داشته باشد.
چالشهای استفاده از FHE در یادگیری ماشین:
چالش اصلی این است که بسیاری از عملیاتهای رایج در شبکههای عصبی، مثل ReLU و Softmax، از توابعی مانند MAX و EXP استفاده میکنند که چندجملهای نیستند. بنابراین، اگر بخواهیم از FHE به طور مؤثر استفاده کنیم، باید این اجزاء را به صورت تقریبهای چندجملهای تغییر دهیم.
درFHE در یادگیری فدرال:
درFHE همچنین میتواند در یادگیری فدرال (Federated Learning) نیز به کار رود. در یادگیری فدرال، چندین مدل به صورت محلی روی ماشینهای با دادههای خصوصی آموزش داده میشوند و سپس در یک سرور راه دور تجمیع میگردند. معمولاً تجمیع مدلها شامل میانگینگیری ساده است، اما میتوان با رمزنگاری مدلهایی که به سرور ارسال میشوند و رمزگشایی مدل تجمیعشده به صورت محلی، حریم خصوصی را بهبود بخشید. با این حال، یکی از معایب این روش این است که تمام کلاینتها باید کلیدهای رمزنگاری و رمزگشایی یکسانی را به اشتراک بگذارند، که این موضوع امنیت را در معرض خطر قرار میدهد.
مثال:
سناریو:
فرض کنید شرکت آمازون دادههای رمزگذاری شده خود را به شما میدهد. این دادهها ممکن است شامل اطلاعات حساس مانند:
- تراکنشهای مشتریان
- الگوهای خرید
- دادههای مرتبط با کالاها
اما از آنجا که این دادهها بسیار حساس هستند و آمازون نمیخواهد هیچکس به دادههای خام دسترسی داشته باشد، همه دادهها را رمزگذاری میکندو به شما فقط نسخههای رمزگذاریشده را میدهد.
شما چه میکنید؟
شما یک مدل یادگیری ماشین دارید و میخواهید این دادهها را برای اهداف خاصی (مثل پیشبینی فروش یا تحلیل رفتار مشتری) آموزش دهید. اما:
- شما هرگز دادههای واقعی (خام) را نمیبینید.
- تمام عملیات ریاضی و پردازشها روی دادههای رمزگذاریشده انجام میشود.
به لطف رمزنگاری همومورفیک، مدل شما میتواند:
- دادههای رمزگذاریشده را پردازش کند،
- محاسبات ریاضی و یادگیری ماشین را روی آنها انجام دهد
- خروجی را به صورت رمزگذاریشده تولید کند.
نتیجه چیست؟
نتیجهای که شما از مدل یادگیری ماشین خود به دست میآورید نیز به صورت رمزگذاریشده است. شما نمیتوانید بفهمید نتیجه چیست، چون رمزگذاری شده است. تنها کاری که میکنید این است که:
- خروجی رمزگذاریشدهرا به آمازون برمیگردانید.
- آمازون با داشتن کلید رمزگشایی میتواند نتایج را رمزگشایی کند و بفهمد که نتیجه چیست.
هدف این کار چیست؟
این روش دقیقاً به این دلیل استفاده میشود که آمازون (یا هر شرکت دیگری) نمیخواهد:
- دادههای خامشان فاش شود یا به اشتراک گذاشته شود،
- اما همچنان میخواهند از توان محاسباتی و مدلهای یادگیری ماشین افراد یا شرکتهای دیگر استفاده کنند تا دادههایشان را تحلیل و نتیجهگیری کنند.
این رویکرد به شرکتها این امکان را میدهد که:
- از مدلهای یادگیری ماشین و خدمات هوش مصنوعی دیگران بهرهمند شوند بدون اینکه اطلاعات حساسشان را فاش کنند.
- دادههایشان را بدون نگرانی از افشا شدن، به اشتراک بگذارند.
مزایا:
1. حفظ حریم خصوصی: هیچکس به دادههای خام دسترسی ندارد، حتی شما که مدل را پیادهسازی میکنید.
2. امنیت بالا: چون دادهها رمزگذاری شدهاند، حتی اگر دادهها در طول پردازش لو بروند، کسی نمیتواند آنها را بخواند یا سوءاستفاده کند.
3. امکان استفاده از توانمندیهای دیگران: شرکتهایی مثل آمازون میتوانند از دانش و تجربه متخصصان دیگر استفاده کنند بدون اینکه نگران افشای دادههای حساس خود باشند.
نتیجه نهایی:
در این روش، شما فقط به عنوان پردازنده یا پیادهکننده مدل عمل میکنید. شما عملیات یادگیری ماشین را انجام میدهید، اما نتیجه و دادههای خام را نمیبینید. شرکت (آمازون در این مثال) تنها کسی است که میتواند دادهها و نتایج نهایی را رمزگشایی کند و از آن استفاده کند.
این رویکرد بسیار مناسب است برای شرکتهایی که دادههای حساس و مهمی دارند و نمیخواهند اطلاعاتشان لو برود، اما همچنان میخواهند از هوش مصنوعی و تحلیل دادهها بهرهمند شوند.