طبق گزارشها و مکاتبات داخلی که توسط TechCrunch مشاهده شده، گوگل اخیراً از مدل Claude آنتروپیک برای بهبود هوش مصنوعی جمنای خود استفاده کرده است. پیمانکاران مشغول به کار بر روی جمنای گوگل، پاسخهای تولیدشده توسط این مدل را با پاسخهای مدل Claude که رقیب آنتروپیک است، مقایسه کردهاند.
اگرچه گوگل در پاسخ به درخواست TechCrunch برای اظهار نظر در مورد اینکه آیا اجازه استفاده از Claude را از آنتروپیک دریافت کرده است یا خیر، جوابی نداد، مقایسه خروجیهای مدلهای هوش مصنوعی بهطور معمول در صنعت تکنولوژی برای ارزیابی عملکرد مدلها صورت میگیرد. پیمانکاران مشغول به ارزیابی جمنای گوگل باید پاسخهای مدل را بر اساس معیارهایی مانند دقت و طول توضیحات ارزیابی کنند و برای هر سوال، حداکثر 30 دقیقه زمان دارند تا تعیین کنند کدام مدل، جمنای گوگل یا Claude، پاسخ بهتری ارائه میدهد.
استفاده از Claude توسط گوگل نگرانیهایی را بهوجود آورده است، زیرا برخی پیمانکاران متوجه شدند که پاسخهای Claude بهطور معمول اولویت بیشتری به مسائل ایمنی میدهند. بهعنوان مثال، Claude از پاسخ دادن به برخی درخواستهایی که آنها را ایمن نمیداند، مانند نقشآفرینی بهعنوان یک دستیار هوش مصنوعی دیگر، خودداری کرده است. در حالی که پاسخ جمنای گوگل به یک درخواست مشابه بهعنوان یک تخلف امنیتی بزرگ شناسایی شد، زیرا شامل محتوای صریح و نامناسب بود.
مهم است بدانید که شرایط خدمات تجاری آنتروپیک استفاده از مدل Claude برای ساخت محصولات رقیب یا آموزش مدلهای هوش مصنوعی رقیب بدون کسب تأیید از آنتروپیک را ممنوع کرده است. گوگل یکی از سرمایهگذاران اصلی آنتروپیک است که این موضوع سوالاتی در خصوص رابطه دو طرف و پیامدهای اخلاقی این اقدام بهوجود آورده است.
در حالی که گوگل استفاده از Claude برای آموزش مستقیم جمنای خود را رد کرده است، سخنگوی DeepMind گوگل، که مسئول پروژه جمنای این شرکت است، تأیید کرده که این شرکت بهطور گاهبهگاه خروجیهای مدلها را برای ارزیابی مقایسه میکند، اما بر این نکته تأکید کرده که جمنای گوگل با استفاده از مدلهای آنتروپیک آموزش داده نشده است.
برای جزئیات بیشتر، میتوانید مقاله کامل را در TechCrunch اینجا مطالعه کنید.