مجله خبری و آموزشی هوش مصنوعی

چه کسی باید دسترسی به هوش مصنوعی را کنترل کند؟ تحلیلی درباره آینده هوش مصنوعی

توسط همایون آزادپور
۰ اظهار نظر

در ماه می، مدیران عامل سه تا از برجسته‌ترین آزمایشگاه‌های هوش مصنوعی -OpenAI، Google DeepMind و Anthropic- یک بیانیه امضا کردند که هشدار می‌داد هوش مصنوعی می تواند به اندازه بیماری های همه گیر و جنگ هسته ای برای بشریت خطرناک باشد. برای جلوگیری از فاجعه، بسیاری از شرکت‌ها و محققان هوش مصنوعی در مورد محدودیت‌هایی در مورد اینکه چه کسی می‌تواند به قدرتمندترین مدل‌های هوش مصنوعی دسترسی داشته باشد و چه کسی می‌تواند آنها را در وهله اول توسعه دهد بحث می‌کنند. آن‌ها نگران هستند که بازیگران بد بتوانند از مدل‌های هوش مصنوعی برای ایجاد مقادیر زیادی اطلاعات نادرست استفاده کنند که می‌تواند نتایج انتخابات را تغییر دهد، و اینکه در آینده، مدل‌های قوی‌تر هوش مصنوعی می‌توانند به انجام حملات سایبری یا ایجاد سلاح‌های زیستی کمک کنند.

اما همه شرکت های هوش مصنوعی موافق نیستند. در روز پنج‌شنبه، متا Code Llama را منتشر کرد، خانواده‌ای از مدل‌های هوش مصنوعی که بر روی Llama 2، پرچم‌دار مدل زبان بزرگ متا ساخته شده‌اند، با آموزش‌های اضافی برای کاربردی کردن آن‌ها برای کارهای کدنویسی. 

بزرگ‌ترین و تواناترین مدل‌های خانواده Code Llama در معیارهای کدنویسی از سایر مدل‌های در دسترس بهتر عمل می‌کنند و تقریباً با GPT-4، تواناترین مدل زبان بزرگ OpenAI مطابقت دارند. مانند سایر مدل‌های هوش مصنوعی که Meta توسعه می‌دهد، مدل‌های زبان Code Llama برای دانلود در دسترس هستند و برای استفاده تجاری و تحقیقاتی رایگان هستند. در مقابل، سایر توسعه دهندگان برجسته هوش مصنوعی، مانند OpenAI و Anthropic ، فقط به کسب و کارها و توسعه دهندگان اجازه دسترسی محدود و پولی به مدل های خود را می دهد که به گفته آزمایشگاه های هوش مصنوعی به جلوگیری از سوء استفاده از آنها کمک می کند. (همچنین به درآمدزایی کمک می کند.)

ماه‌هاست که متا مسیر متفاوتی را برای سایر شرکت‌های بزرگ هوش مصنوعی طراحی کرده است. وقتی Meta مدل هوش مصنوعی LLaMA با زبان بزرگ خود را در ۲۴ فوریه منتشر کرد، در ابتدا اجازه دسترسی به پژوهشگران را به صورت موردی داد. اما تنها یک هفته بعد، وزن‌های LLaMa – توصیف ریاضی کامل مدل – به صورت آنلاین به بیرون درز کرد.

در ماه ژوئن، سناتورهای آمریکایی ریچارد بلومنتال و جاش هاولی، رئیس و عضو ارشد کمیته فرعی قضایی سنا در خصوص حریم خصوصی، فناوری و قانون، نامه نوشتند. خطاب به مارک زاکربرگ، مدیر عامل متا، با اشاره به این که “به نظر می رسد متا حتی پیامدهای اخلاقی انتشار عمومی خود را در نظر نگرفته است” و به دنبال اطلاعاتی در مورد این فاش شد و از اینکه متا نحوه انتشار مدل های هوش مصنوعی را در آینده تغییر خواهد داد یا خیر. .

این مطالب هم پیشنهاد می‌شود

پیام بگذارید