OpenAI در تلاش برای ساخت ابزار تشخیص تصاویر
ساخت ابزارهایی برای تشخیص استفاده از هوش مصنوعی دلایل زیادی دارد، همچون کنترل تولید محتوا، جلوگیری از سواستفاده، تشخیص تقلب، تضمین امانت داری و ارتقا شفافیت انجام میگیرد. ابزارهای هوش مصنوعی به خوبی میتوانند برای دستکاری و ساخت گزارش های خبری رویدادهای جهانی استفاده شوند
به گزارش بلومبرگ، شرکت OPENAI سازنده چت بات محبوب ChatGPT و ابزار هوش مصنوعی DALL-E تصمیم دارد ابزاری را بسازد که تعیین کند تصاوی با استفاده از هوش مصنوعی ساخته شده است. میرا موراتی، مدیر ارشد فناوری این شرکت، روز سه شنبه چنین خبری را اعلام کرد و همچنین گفت که ابزار OpenAI در تعیین چنین موردی، 99 درصد قابل اعتماد است. موراتی گفت که OpenAI در حال آزمایش کردن این ابزار است و بعد از انجام آزمایشات به طور عمومی عرضه خواهد شد.
البته الان هم یکسری ابزار وجود دارد که ادعا میکند این تصاویر یا سایر محتواها با هوش مصنوعی ساخته شدهاند، تعداد این ابزارها انگشت شمار است اما به طور دقیق هم نمی توانند عمل کنند. در ماه ژانویه هم OpenAI ابزار مشابهی را برای تعیین اینکه آیا متن توسط هوش مصنوعی تولید شده یا خیر، اما در ژوئیه معلوم شد که اطلاعات قابل اعتمادی نمی دهد و به همین دلیل کنار گذاشته شد.
این شرکت اعلام کرد که قصد دارد روی بهبود این نرم افزار کار کند و میخواهد در زمینه های دیگر مثل زمینه تشخیص استفاده از هوش مصنوعی در صدا و تصویر هم ورود پیدا کند.
یکی دیگر از خبرهایی که مدیران OpenAI در روز سه شنبه در مورد آن صحبت کردند، در مورد مدل هوش مصنوعی GPT4 بود. هر چند OpenAI نامی برای نسخه بعدی GPT-4 انتخاب نکرده اما این شرکت در ماه جولای درخواست ثبت علامت تجاری “GPT-5” را به اداره ثبت اختراع و علائم تجاری ایالات متحده داده است.
چت بات هایی از ChatGPT که از مدل از GPT-4 و مدل قبلی GPT-3.5 استفاده میکنند، احتمال این را دارند که مطالبی تولید کنند که کاذب باشد. سوالی در این زمینه از موراتی پرسیده شد که آیا مدل GPT-5 دیگر کاذب را منتشر نمی کند، گفت: “شاید.”
سم آلتمن، مدیر اجرایی این شرکت گفت: احتمالا OpenAI تراشه های کامپیوتری برای آموزش و عملکرد مدل های هوش مصنوعی تولید و طراحی کند و استفاده از تراشه های شرکت هایی مانند Nvidia Corp را کنار بگذارد.