<

يحمي قانون الولايات المتحدة روبوتات المحادثة المدعومة بالذكاء الاصطناعي من قضايا التشهير

[ad_1]

منذ إطلاق ChatGPT ، كان هناك هيمنة AI Chatbots مثل ChatGPT. ومع ذلك، فإن انتشار روبوتات المحادثة هذه يعني أيضًا أن المشكلات تتزايد. في الحقيقة، فاجأ OpenAI العالم بقدرة ChatGPT. لهذا السبب، كانت هناك اعتراضات كثيرة على استخدامه وبعضها ينطوي على معارك قانونية. ومع ذلك، في الولايات المتحدة، موطن ChatGPT ، قد يحمي القانون ChatGPT فقط. تنص المادة 230 من قانون آداب الاتصالات الأمريكي الصادر في عام 1996 على أن الشركة لا تحتاج إلى تحمل المسؤولية القانونية عن المحتوى المنشور من قبل أطراف ثالثة أو مستخدمين على نظامها الأساسي (المادة 230).

ومع ذلك، ستقرر المحكمة العليا الأمريكية في الأشهر القليلة المقبلة ما إذا كانت ستضعف هذه الحماية. قد يكون لهذا أيضًا تأثير على روبوتات الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT. من المتوقع أن يحكم الحكام بحلول نهاية يونيو بشأن إمكانية مقاضاة موقع YouTube المملوك لشركة Alphabet لتوصية المستخدمين بمقاطع فيديو. بينما تُعفى الأنظمة الأساسية من المسؤولية عن مقاطع الفيديو التي يحمّلها المستخدم، فهل تظل حماية القسم 230 سارية عند استخدام الخوارزميات للتوصية بالمحتوى للمستخدمين؟

يقول خبراء التكنولوجيا والقانونية إن للقضية آثار تتجاوز منصات التواصل الاجتماعي. وهم يعتقدون أن الحكم قد يثير جدلاً جديداً حول ما إذا كانت شركات مثل أوبن إيه آي وجوجل، التي تطور روبوتات الدردشة بالذكاء الاصطناعي، يمكن أن تكون محصنة ضد الادعاءات القانونية مثل التشهير أو انتهاك الخصوصية. يشير الخبراء إلى أن هذا يرجع إلى أن الخوارزمية المستخدمة بواسطة ChatGPT وغيرها تشبه الطريقة التي توصي بها مقاطع الفيديو لمستخدمي YouTube.

ماذا تفعل روبوتات الدردشة بالذكاء الاصطناعي؟

يتم تدريب روبوتات الدردشة بالذكاء الاصطناعي على إنشاء كميات هائلة من المحتوى الأصلي، وينطبق القسم 230 بشكل عام على محتوى الطرف الثالث. لا يزال يتعين على المحاكم النظر فيما إذا كانت استجابات روبوتات الدردشة التي تعمل بالذكاء الاصطناعي ستكون محمية. قال أحد أعضاء مجلس الشيوخ الديمقراطيين إن استحقاق الحصانة لا يمكن تطبيقه على أدوات الذكاء الاصطناعي التوليدية لأن هذه الأدوات “تخلق المحتوى”. “القسم 230 يتعلق بحماية المستخدمين ومواقع الويب التي تستضيف وتنظم كلام المستخدم. لا ينبغي أن تعزل الشركات عن عواقب أفعالها ومنتجاتها.

تسعى صناعة التكنولوجيا إلى الاحتفاظ بالقسم 230. يعتقد بعض الأشخاص أن أدوات مثل ChatGPT تشبه محركات البحث، حيث تقدم المحتوى الحالي للمستخدمين بناءً على الاستفسارات. “الذكاء الاصطناعي لا يخلق أي شيء حقًا. قال كارل زابو، نائب الرئيس والمستشار العام في مجموعة التجارة الصناعية التكنولوجية، NetChoice ، إنه يعرض المحتوى الحالي بطريقة مختلفة أو بتنسيق مختلف.

قال Szabo إنه إذا تم إضعاف القسم 230 ، فسيؤدي ذلك إلى إنشاء مهمة مستحيلة لمطوري الذكاء الاصطناعي. سيعرضهم هذا أيضًا إلى سيل من الدعاوى القضائية التي يمكن أن تخنق الابتكار. يتكهن بعض الخبراء بأن المحاكم قد تتخذ موقفًا محايدًا وتفحص السياق الذي تولد فيه نماذج الذكاء الاصطناعي ردودًا ضارة محتملة.

قد تظل مزايا الإعفاء سارية في الحالات التي يبدو فيها أن نموذج الذكاء الاصطناعي قادر على شرح المصادر الحالية. لكن من المعروف أن روبوتات الدردشة مثل ChatGPT تولد إجابات خاطئة، والتي يقول الخبراء إنها قد لا تكون محمية.

هاني فريد تقني وأستاذ بالجامعة. من كاليفورنيا، بيركلي، قال إنه من بعيد المنال الاعتقاد بأن مطوري الذكاء الاصطناعي يجب أن يكونوا محصنين ضد الدعاوى القضائية بشأن النماذج التي “يبرمجونها ويدرّبونها وينشرونها”.

“إذا كان من الممكن تحميل الشركات المسؤولية في الدعاوى المدنية، فإنهم يصنعون منتجات أكثر أمانًا ؛ قال فريد: “إذا كانت معفاة، فإن المنتجات تميل إلى أن تكون أقل أمانًا”.

مشاكل متعلقة بأدوات الذكاء الاصطناعي مثل ChatGPT

أصبحت روبوتات الدردشة المدعومة بالذكاء الاصطناعي تحظى الآن بشعبية كبيرة في عالم اليوم. هذا يرجع إلى حقيقة أنها توفر طريقة فعالة وملائمة للناس للتفاعل. روبوتات المحادثة هذه قادرة على معالجة اللغة الطبيعية وتقديم الردود ذات الصلة على الاستفسارات. هذا يجعلها أداة مفيدة لخدمة العملاء والمبيعات والدعم. ومع ذلك، فقد أثيرت مخاوف بشأن سلامة استخدام روبوتات الدردشة التي تعمل بالذكاء الاصطناعي، خاصة فيما يتعلق بالخصوصية والأمان.

قد يكون أحد الشواغل الرئيسية في روبوتات الدردشة بالذكاء الاصطناعي هو الثغرة لخروقات البيانات والهجمات الإلكترونية. نظرًا لأن روبوتات المحادثة غالبًا ما تطلب من المستخدمين تقديم معلومات شخصية مثل الاسم والعنوان وتفاصيل الدفع، فهناك خطر من إمكانية سرقة هذه المعلومات. لتقليل هذه المخاطر، يجب على الشركات التأكد من أن روبوتات المحادثة الخاصة بها آمنة واستخدام طرق التشفير لحماية بيانات المستخدم.

هناك مشكلة أخرى في روبوتات الدردشة التي تعمل بالذكاء الاصطناعي وهي احتمال انحراف النظام عن التحيز. نظرًا لأن برامج الدردشة هذه مبرمجة من قبل البشر، فقد تكون تحيزات وصور نمطية موجودة في المجتمع. على سبيل المثال، قد يقوم برنامج الدردشة الآلي المصمم لفحص الباحثين عن عمل بالتمييز ضد مجموعات معينة على أساس العرق أو الجنس أو العرق. لتجنب ذلك، يجب على مطوري برامج الدردشة التأكد من أن الخوارزميات الخاصة بهم قريبة من الكمال وبدون تحيز.

أيضًا، هناك خطر يتمثل في عدم قدرة روبوتات الدردشة على التعامل مع الاستعلامات المعقدة. وهذا يشمل تلك التي ترتبط بالصحة العقلية أو العنف المنزلي. في مثل هذه الحالات، قد لا يتلقى المستخدمون الدعم الذي يحتاجون إليه. بالطبع، هذا أحد المجالات التي يريد الأشخاص فيها أن تكون روبوتات المحادثة هذه مسؤولة. إذا أعطوا إجابة خاطئة في سيناريوهات معينة، فقد تكون النتيجة سيئة للغاية.

الكلمات الأخيرة

على الرغم من هذه المخاوف، يمكن أن تكون روبوتات الدردشة المدعومة بالذكاء الاصطناعي آمنة للاستخدام إذا تم استخدامها بشكل صحيح. يرغب بعض الأشخاص في استخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي لتحل محل الأطباء والخبراء الآخرين. هذه ليست الاستخدامات المثالية لهذه الأداة. من جانب المطورين، يجب عليهم تجنب التحيز بأي ثمن والتأكد من أن النظام شامل. أيضًا، لا ينبغي ترك روبوتات المحادثة تعمل بدون وجود بشري. من وقت لآخر، يجب فحصها وترقيتها إذا لزم الأمر. للتأكد من أنها آمنة للاستخدام، يجب على المطورين معالجة المخاوف المتعلقة بالأمان والخصوصية والتحيز وحدود روبوتات المحادثة. مع وجود الأدوات المناسبة في مكانها الصحيح، يمكن لروبوتات الدردشة الذكية أن تجعل البحث عن المعلومات أمرًا سهلاً للغاية. يمكن أن يكون أيضًا مساعدًا لائقًا للعديد من الأشخاص الذين يحتاجون إلى نوع من المساعدة فيما يتعلق بالمعلومات.

[ad_2]

Source link

مواضيع مشابهة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *