وبسایت Freelancer استارتاپ هوش مصنوعی انتروپیک (Anthropic)، سازنده مدل Claude، را به استفاده از دادههای وبسایتش متهم کرده است. «کایل وینز»، مدیرعامل iFixit، نیز اعلام کرده Anthropic سیاستهای این وبسایت برای استفاده از محتوایش بهمنظور آموزش مدل هوش مصنوعی خود را نادیده گرفته است.
به گزارش فایننشال تایمز، «مت باری»، مدیر اجرایی Freelancer، اعلام کرده ClaudeBot از Anthropic «تهاجمیترین مدل استخراجکننده اطلاعات وبسایتها» است. طبق ادعای مدیرعامل iFixtit در ایکس، چتبات انتروپیک طی ۲۴ ساعت، یکمیلیون بار به سرورهای iFixit ضربه زده است.
تأثیر انتروپیک بر کسبوکار وبسایتها
او در پست خود خطاب به انتروپیک نوشت:
«شما نهتنها بدون پرداخت هزینه از محتوای ما استفاده میکنید، بلکه منابع توسعهدهنده ما را نیز محدود میکنید.»
مدیر اجرایی Freelancer میگوید آنها ابتدا تلاش کردند صرفاً درخواست دسترسی چتبات انتروپیک را رد کنند اما درنهایت مجبور شدند آن را کامل مسدود کنند. iFixit نیز با اضافهکردن چند مورد به فایل robots.txt سایت خود، دسترسی ابزار جمعآوری اطلاعات انتروپیک را متوقف کرده است.
پروتکل robot.txt چیست؟
چند ماه قبل نیز Wired یکی دیگر از شرکتهای هوش مصنوعی، Perplexity، را متهم کرده بود که اطلاعات وبسایتش را استخراج کرده است. شرکتها از فایلی با عنوان robots.txt استفاده میکنند که حاوی دستورالعملهایی برای استخراج دادههای وب است و صفحاتی را که میتوان یا نمیتوان به آنها دسترسی داشت، مشخص میکند.
درحالیکه پیروی از این دستورالعملها داوطلبانه است، اکثراً نادیده گرفته میشود.
پس از انتشار گزارش Wired، استارتاپی با نام TollBit که ارتباط شرکتهای هوش مصنوعی را با ناشران محتوا برقرار میکند، گفت فقط Perplexity فایل robots.txt را دور نمیزند. هرچند در آن زمان به شرکت خاصی اشاره نشد، در گزارش دیگری گفته شد OpenAI و Anthropic نیز آن را نادیده میگیرند.
شرکتهای هوش مصنوعی از ابزارهای جمعآوری اطلاعات که بهاصطلاح خزنده (Crawlers) نامیده میشود، برای جمعآوری محتوا از وبسایتها استفاده میکنند. سپس از این دادهها میتوان برای آموزش مدلهای هوش مصنوعی استفاده کرد؛ بنابراین بهدلیل استفاده از محتوا، شکایتهای متعددی از آنها مطرح شد. به همین دلیل، OpenAI در چند ماه گذشته با چندین ناشر ازجمله فایننشال تایمز و مالک مجله People قرارداد همکاری امضا کرده است.