ما متوجه روند رو به رشدی در محافل حرفهای شدهایم که افراد ایدهها یا اسنادی را برای بررسی با عناوینی مانند "در اینجا چند ایده از ChatGPT آمده است" یا "این پیشنویسی است که با کمک ChatGPT نوشتم" ارسال میکنند. آنچه به دنبال آن میآید اغلب متنی ویرایش نشده یا با ویرایش جزئی است که بیش از حد کلی است یا فاقد زمینه مهم است. (همچنین مواردی وجود دارد که متن هوش مصنوعی تولید شده به نظر میرسد اما به این موضوع اذعان نمیشود.) این امر بهبود خروجی را به عهده گیرنده میگذارد و عملاً او را ویراستار ChatGPT میکند، نقشی که او برای آن ثبتنام نکرده است.
به عنوان مثال، اخیراً یکی از ما از سوی یکی از آشنایان حرفهای خواسته شد تا یک سند استراتژی را بررسی کند. او نوشت: "من این ایده را داشتم و کنجکاوم نظرات شما را بدانم" و اضافه کرد: "هوش مصنوعی بسیار مفید بود." آنچه به دنبال آن آمد، یادداشتی تقریباً ۱۲۰۰ کلمهای بود که به وضوح توسط هوش مصنوعی مولد نوشته شده بود. ما حدود نیم ساعت را صرف تمرکز روی آن و پیشنویس پاسخ جامع کردیم. دوستمان هرگز پاسخی نداد و در نهایت ما احساس ناراحتی کردیم که از ما خواسته بود به چیزی واکنش نشان دهیم که خودشان زمان زیادی برای آن صرف نکرده بودند.
این تجربه منحصر به فرد نیست و نشاندهنده درد فزایندهای از پذیرش هوش مصنوعی مولد است: این ابزارها تولید سریع محتوا را برای افراد آسانتر میکنند که سپس میتوانند آن را برای واکنش یا ویرایش به دیگران منتقل کنند و بار شناختی را از خالق به گیرنده منتقل میکنند.
جای تعجب نیست که شاهد این موضوع هستیم. ما هنوز در حال کشف هنجارهای استفاده از هوش مصنوعی مولد برای کار هستیم. از آنجایی که مزایای هوش مصنوعی مولد اغلب در قالب صرفهجویی در زمان مطرح میشود، قابل درک است که چرا افراد ممکن است در بررسی خروجی آن صرفهجویی کنند. اما همانطور که اریکا گرین، ویراستار در Machines on Paper، اخیراً پس از تجربهای مشابه با داستان ما نوشت، "بهرهوری در برونسپاری کار فکری نیست، بلکه در تسریع سرعت اجرا است." علاوه بر این، زمان صرفهجویی شده یک نفر، زمان صرف شده دیگری برای رفع کار با کیفیت پایین میشود.
چگونه هوش مصنوعی تلاش شناختی را تغییر میدهد
یک مطالعه اخیر توسط محققان مایکروسافت و دانشگاه کارنگی ملون نشان داد که استفاده از هوش مصنوعی مولد، تلاش تفکر انتقادی ما را از وظایفی مانند جمعآوری اطلاعات و ایجاد محتوا به وظایفی مانند تأیید اطلاعات، ویرایش و هدایت پاسخهای هوش مصنوعی تغییر مسیر میدهد. به همین دلیل است که رهبران به ما میگویند تفکر انتقادی، قضاوت و سلیقه مهارتهایی هستند که آنها برای آینده مهم میدانند.
نگرانی زمانی است که افراد در تأیید، ویرایش و هدایت کوتاهی میکنند. فابریتزیو دلآکوا، پژوهشگر پسا دکتری در دانشکده کسب و کار هاروارد که پدیدهای مرتبط را مطالعه کرده است، قبلاً به ما گفت: "خطر این وجود دارد که افراد... مغز خود را خاموش کرده و صرفاً به آنچه هوش مصنوعی توصیه میکند تکیه کنند. و در مواردی که هوش مصنوعی آنقدر خوب نیست، این قطعاً حیاتی است." مطالعه مایکروسافت و کارنگی ملون نیز به همین ترتیب نشان داد که وقتی کاربران نسبت به ابزار هوش مصنوعی اعتماد بیشتری دارند، تمایل به درگیر شدن در تفکر انتقادی کمتری دارند.
بسیاری از افراد ممکن است تأیید و بررسی حقایق خروجی یک ابزار هوش مصنوعی مولد را کمتر جالب یا از نظر خلاقانه پاداشدهنده بدانند. یک مطالعه بر روی دانشمندان مواد نشان داد که حتی اگر چنین ابزاری بهرهوری آنها را به شدت افزایش داد، بسیاری از شغل خود کمتر راضی بودند، زیرا احساس میکردند هوش مصنوعی کار اصلی و خلاقانه را انجام میدهد و آنها فقط در حال تمیز کردن کارهای آن هستند.
صادقانه بگوییم، این همان احساسی است که گاهی اوقات داشتهایم وقتی همکاری متن تولید شده توسط هوش مصنوعی را برای ما ارسال کرده است، و مسئولیت را به ما منتقل کرده تا بفهمیم آیا دقیق و مرتبط است یا خیر.
راه پیش رو
با استاندارد شدن ابزارهای هوش مصنوعی در محافل حرفهای، ما به دستورالعملهای واضحتری برای استفاده مسئولانه نیاز داریم تا از نفوذ شیوههای ضعیف در محیطهای کاری جلوگیری شود.
ما در مورد اینکه چگونه سازمانها میتوانند هنجارهایی را تعیین کنند که از تحمیل بار نابرابر کار با کمک هوش مصنوعی بر تیمهایشان جلوگیری کند، فکر کردهایم. یک چارچوب ساده: افراد باید بر اساس کیفیت کارشان ارزیابی شوند، صرف نظر از ابزری که برای انجام آن استفاده کردهاند. اینکه فردی از ChatGPT استفاده کرده است یا خیر، سؤال اشتباهی است (با فرض اینکه برای کار مورد نظر ممنوع نیست و به صورت اخلاقی استفاده میشود). آنچه مهم است این است که آیا کار فرد با استانداردهای شرکت مطابقت دارد یا خیر. اگر مطابقت ندارد، این مشکل است - نه اینکه او برای انجام بخشی از کارش از هوش مصنوعی استفاده کرده است.
اگر تیم شما هنوز در حال تعیین هنجارهای استفاده از هوش مصنوعی است، در اینجا چند بهترین روش برای در نظر گرفتن آورده شده است:
- واسط هوش مصنوعی نباشید. هر کاری که از هوش مصنوعی مولد برای آن استفاده میکنید، همچنان باید قدری تلاش را در بر داشته باشد. اگر در حال طوفان فکری با همکاران هستید، ۲۰ ایدهای را که ChatGPT یا Claude به شما میدهد برای آنها ارسال نکنید. (اعتراف به استفاده از ابزار این موضوع را خیلی بهتر نمیکند.) بهترین ایدهها را انتخاب کنید و سپس آنها را همراه با توضیحی درباره آنچه در مورد هر یک فکر میکنید، برای همکارانتان ارسال کنید.
- حقایق را تأیید کنید. در این مرحله به خوبی اثبات شده است که ابزارهای هوش مصنوعی مولد گاهی چیزهایی را از خود میسازند. اگر قبل از هوش مصنوعی مولد از به اشتراک گذاشتن سندی با خطا شرمنده میشدید، اکنون نیز باید همین احساس را داشته باشید.
- از خود بپرسید: "آیا این سطح از کیفیت را از یک همکار میپذیرفتم؟" اگر پاسخ منفی است، هنوز آن را ارسال نکنید؛ آنقدر ویرایش کنید تا از خروجی راضی شوید، سپس آن را برایشان بفرستید.
- زمینهای را که ابزار هوش مصنوعی ندارد، فراهم کنید. شما در مورد شرکت و پروژهای که روی آن کار میکنید چیزهایی میدانید که ابزارهای هوش مصنوعی مولد به آنها دسترسی ندارند. این زمینه را در دستورات خود به آنها بدهید؛ آنچه را که به شما میدهند ویرایش کنید تا برای شرکت شما کار کند.
در اینجا یک سند تک صفحهای با هنجارهای هوش مصنوعی آورده شده است که میتوانید با تیم خود به اشتراک بگذارید. (برای دسترسی به آن باید عضو Charter Pro باشید یا عضویت Pro داشته باشید.)
و در اینجا یادداشتی است که میتوانید برای کسی ارسال کنید که چیزی را برای شما فرستاده که به هدف نخورده و احتمالاً بدون اعتراف از هوش مصنوعی مولد استفاده کرده است:
بابت ارسال این متن ممنونم! لطفاً قبل از اینکه آن را ویرایش کنم یا با جزئیات پاسخ دهم، یک بار دیگر آن را بررسی میکنید؟ بخشی از آن کمی کلی به نظر میرسد. میتوانید آن را دقیقتر کنید و مطمئن شوید که تمام زمینه را در بر دارد؟ اگر سوالی داشتید به من اطلاع دهید!
آیا تیم شما هنجارهایی را در مورد استفاده از هوش مصنوعی تعیین کرده است؟ به ما اطلاع دهید—خوشحال میشویم از شما بشنویم.