رند هندي: هذا ما أعرفه عن الخصوصية والذكاء الاصطناعي

اقرأ بهذه اللغة

يحمل المستقبل الكثير من الابتكارات التي تسهّل حياتنا، ولكن يُقال إنّ لهذا ثمناً لا بدّ من دفعه إذ علينا الاختيار بين توفير الوقت والسيطرة وبين الراحة والخصوصية. ولكن في وقتٍ يريد الجميع بياناتنا، فإنّنا لا نتردّد في إعطائه إيّاها.

خلال قمّة "هيلو تومورو" Hello Tomorrow Summit [أي مرحباً بالغد] في باريس، والتي انعقدَت بين 13 و14 تشرين الأول/أكتوبر، تمّ عرض الكثير من الابتكارات التي ستغيّر الحضارة الإنسانية، من تخزين الحمض النوويّ وصولاً إلى السيارات الذاتية القيادة. في المقابل، وعلى المنصّة الكبيرة الأخرى، كان هناك ندوةٌ تحاول الإجابة عمّا إذا كانت هذه الابتكارات ستجعل العالم أفضل أم ستجعله أكثر خوفاً.

ضمّت هذه الندوة رائد الأعمال الفرنسيّ اللبنانيّ رند هندي، مؤسّس شركة "سنيبس" Snips. وهي شركة توفّر أدواتٍ لتطوير البرمجيات SDKs، تسمح لأيٍّ كان بأن يُنشئ برمجيات ذكاءٍ اصطناعيّ مع الحفاظ على الخصوصية.

يؤمن هندي بأنّ حماية البيانات تعتمد على حسن نية صانع المنتَج، وكان له هذا الحديث عن الذكاء الاصطناعيّ والخصوصية.

الذكاء الاصطناعيّ يحتاج إلى البيانات وكذلك إلى حمايتها. لكي تتمكّن برمجيّات الذكاء الاصطناعيّ [أو المساعد الذكيّ] من النجاح، ينبغي أن تفهم حياة الناس بشكلٍ عميق. على سبيل المثال، إذا طلبتَ من مساعدٍ ذكيّ أن يعثر لك على مطعمٍ يابانيٍّ جيّد قريبٍ من الفندق الذي تمكث فيه، فهو يحتاج إلى معرفة موقع هذا الفندق، وبالتالي عليه الدخول إلى رسائلك الإلكترونية ومحادثاتك وموقعك الجغرافي ومفكّرتك ووسائل التواصل التي تستعملها. من جهةٍ أخرى، إذا عمدنا إلى تخزين الكثير من البيانات على الخوادم servers الخاصّة بنا، ستصبح هذه الأخيرة هدفاً للقراصنة والحكومات. لذا فإنّ الخصوصية ليست أمراً عادياً بالنسبة لنا، بل هي شأنٌ أخلاقيّ وضروريّ لكي يشعر الناس بالأمان حيال البيانات التي نقوم بجمعها.

لا يجب أن يقلق الناس حيال الخصوصية. أوّل سؤالٍ يخطر على بال الأشخاص الذين لا يعرفون كثيراً بالتكنولوجيا هو ما إذا كان المساعد الذكيّ سيكون ذكياً ومفيداً بما فيه الكفاية للتغلّب على ’سيري‘ Siri [المساعد الذكيّ الذي تطوّره شركة ’آبل‘ Apple]. وعندما أشرح كيف يمكن القيام بذلك، أوّل ما يتبادر إلى الذهن هو القلق حول الخصوصية. أرى أنّه لا يجب أن يقلق الناس حيال الخصوصية، ليس لأنّها غير مهمّة، إنّما لأنّه يجب أن تكون بديهية وواجبة. بعض الشركات الكبرى تحاول اليوم إقناعك بأنّه يجب الاختيار بين الذكاء الاصطناعيّ والخصوصية، وهذا غير صحيح.

الخصوصية ممكنة مع نموذج العمل المناسب. ما يحول دون حماية الشركات الكبرى للبيانات هو أنّ نموذج عملها يتطلّب منها الوصول إلى هذه البيانات. أمّا القيمة الحقيقية للخصوصية والثقة التي تبنيها مع عملائك، فهي تكمن في اعتماد طرق أخرى لجني المال، وهذا أفضل بكثير.

الخصوصية مربحة. نموذج عملنا لا يقوم على الوصول إلى البيانات، فنحن شركة تطوّر منتَجاتٍ تكنولوجية ونقدّمها للشركات التي تريد بناء برمجيات ذكاءٍ اصطناعيّ خاصّةٍ بها. ومع ذلك، يمكنك الاستمرار في جني المال من خدمةٍ ترتكز إلى البيانات. مثلاً، إذا أردتَ أن تُنشئ تطبيقاً للتوصية بمنتَجاتٍ معيّنة، يمكنك أن تدفع الخوارزمية للعمل على هاتف المستخدِم وليس على خوادم خاصّة بالشركة، كما يمكنك أن تعتمد نظام العضوية membership. لقد بات المستهلِك أكثر حرصاً على الخصوصية، وقد بدأ هذا يظهر مع تطبيقات المحادثة وتطبيقات إدارة كلمات المرور، ما يعني أنّ الناس على استعدادٍ للدفع مقابل الخصوصية.

تطبيق الخصوصية أمرٌ سهل. إذا كنتَ صانع منتَجاتٍ، ليس من الضروريّ أن تكون على درايةٍ بالذكاء الاصطناعيّ أو الخصوصية، لأنّ هذا عملنا نحن كشركة تكنولوجيا. وأعتقد أنّ ما يتوجّب عليك القيام به ينقسم إلى جزأين: الأوّل أن تُجري ما أمكنك من العمليات الحاسوبية على جهاز المستخدِم مباشرةً وإبقاء البيانات على هذا الجهاز؛ فبهذه الطريقة، إذا أراد أحدهم قرصنة بيانات مئات الملايين من المستخدمين سيكون عليه قرصنة مئات الملايين من الهواتف. والثاني هو التشفير ومعالجة البيانات المشفّرة مباشرة.وبالتالي، عند الجمع بين الأمرَين لن يكون هناك سببٌ للوصول إلى بيانات المستخدِمين.

[الصورة الرئيسيّة من "فيل ماردين"]

 

اقرأ بهذه اللغة

البلدان

شارك

مقالات ذات صِلة