براساس خبرنامه‌ی Big Technology‌، بلیک لمواین، مهندس گوگل، اخراج شد. وی علناً اعلام کرده بود که هوش مصنوعی محاوره‌ای لامدا (LaMDA)، خودآگاه شده است. غول جست‌وجوی اینترنت ماه ژوئن پس از انتشار بیانیه‌ای درباره‌ی نگرانی‌های خود و استخدام وکیل برای نمایندگی LaMDA، لمواین را به‌دلیل نقض قرارداد محرمانه‌اش به مرخصی اداری با حقوق فرستاد. به‌نظر می‌رسد بیانیه‌ای که برایان گابریل، سخن‌گوی گوگل، روز گذشته به ورج ارسال کرده بود، اخرج لمواین را تأیید می‌کند. وی در این یادداشت گفت:

ما برای بلیک آرزوی موفقیت می‌کنیم.LaMDA 11 بررسی مجزا را پشت‌سر گذاشته است و اوایل سال جاری، مقاله‌ای تحقیقاتی منتشر کردیم که جزئیات اقدامات مربوط به توسعه‌ی مسئولانه‌ی آن را شرح می‌دهد.

گوگل می‌گوید که ادعای لمواین را به‌طورکامل بررسی کرده و دریافته است که آن  گفته‌ها کاملاً بی‌اساس هستند. این موضوع با بسیاری از کارشناسان و اخلاق‌مداران هوش مصنوعی مطابقت دارد؛ زیرا این افراد نیز اعلام کرده‌اند که با‌‌توجه‌‌‌به فناوری‌های امروزی، ادعاهای لمواین کم‌وبیش غیرممکن است.

مهندس هوش مصنوعی گوگل ادعا می‌کند که مکالمات وی با چت‌بات LaMDA او را به این باور رساند که سیستم آن به چیزی بیش از یک برنامه تبدیل شده است و افکار و احساسات خاص خود را دارد. او مکالمه با هوش مصنوعی گوگل را به‌اندازه‌ی کافی واقع‌بینانه توصیف می‌کند.

لمواین استدلال می‌کند که محققان گوگل باید قبل از اجرای آزمایش روی LaMDA، از این هوش مصنوعی رضایت بگیرند. این در حالی است که خود او وظیفه‌ داشت بررسی کند آیا هوش مصنوعی می‌تواند سخنان نفرت‌انگیز بیان کند یا خیر. پس از مدتی، مهندس گوگل مکالمه‌ی خود با هوش مصنوعی را به‌عنوان مدرک در حساب Medium به‌اشتراک گذاشت. ما در زومیت ویدئویی درباره‌ی هوش مصنوعی LaMDA منتشر کرده‌ایم که با تماشای آن می‌توانید با این فناوری بیشتر آشنا شوید. در‌ادامه، بیانیه‌ی کامل گوگل را می‌خوانید:

در روند توسعه‌ی هوش مصنوعی، این فرایند را بسیار جدی گرفته‌ایم و به نوآوری مسئولانه متهدیم. LaMDA 11 بررسی مجزا را پشت‌سر گذاشته است و اوایل سال جاری مقاله‌ای تحقیقاتی درباره‌ی آن منتشر کردیم که جزئیات اقدامات مربوط به توسعه‌ی مسئولانه‌ی آن را شرح می‌دهد. اگر کارمندی مثل بلیک، نگرانی‌های خود را درباره‌ی کار ما به‌اشتراک بگذارد، آن‌ها را به‌طورکامل بررسی می‌کنیم.

متوجه شدیم ادعاهای بلیک مبنی‌بر به خودآگاهی‌رسیدن LaMDA کاملاً بی‌اساس است و ماه‌ها تلاش کردیم وی را در این زمینه متقاعد کنیم. این بحث‌ها بخشی از فرهنگ باز بود که به ما کمک می‌کند نوآوری‌های جدید را  با مسئولیت‌پذیری ارائه دهیم؛ بنابراین، مایه‌ی تأسف است که با وجود بحث‌های طولانی در این موضوع، بلیک همچنان تصمیم گرفت به‌طور‌مداوم سیاست‌های شفاف اشتغال و امنیت داده‌ها را نقض کند؛ سیاست‌هایی که شامل  حفاظت از اطلاعات محصول می‌شود. ما به توسعه‌ی دقیق مدل‌های زبان ادامه خواهیم داد و برای بلیک نیز آرزوی موفقیت می‌کنیم.

منبع: theverge