هوش مصنوعی در پژوهش؛ مجاز یا غیرمجاز؟

This image is related to a post on the ScholarNexus blog that discusses the transparent use of generative artificial intelligence in the design, execution, and reporting of scientific studies.
0 دیدگاه
12 مرداد 1404

ابزارهای هوش مصنوعی مولد (Generative AI) مانند ChatGPT در سال‌های اخیر به سرعت وارد حوزه‌های مختلف تحقیقاتی شده‌اند. این ابزارها می‌توانند کیفیت و کارایی تحقیقات را بهبود بخشند، اما استفاده نادرست و غیراخلاقی از آن‌ها ممکن است به سرقت علمی، تقلب آکادمیک یا نتایج غیرقابل اعتماد منجر شود.

ابزارهای هوش مصنوعی مولد توانایی استفاده در موارد زیر را دارند:

  • تولید پیش‌نویس بخش‌های مختلف مقاله (مقدمه، بحث و …)
  • کمک به تحلیل داده‌ها و نگارش یافته‌ها در قالب متن یا جدول
  • ویراستاری و بهبود ساختار متن
  • استخراج اطلاعات از منابع گوناگون

در کنار این مزایا، خطراتی نیز وجود دارد؛ محتواهای تولیدشده توسط هوش مصنوعی ممکن است نادرست یا غیرقابل اعتماد باشند و نیاز به بازبینی دقیق دارند.

گزارش شفاف کاربرد این ابزارها در مقالات می‌تواند از پیامدهای منفی استفاده‌ی غیر اخلاقی جلوگیری کند. به این منظور، تلاش پژوهشگران منجر به تدوین گایدلاین گزارش‌دهی برای استفاده از ابزارهای هوش مصنوعی مولد در تحقیقات پزشکی یا GAMER Statement شد.

در ادامه، هر یک از این ۹ بند این گایدلاین را به تفکیک بررسی می‌کنیم و در پایان هر بخش مثالی نگارشی می‌آوریم تا روش گزارش‌دهی صحیح برای شما مشخص شود.

۱. اعلام استفاده از هوش مصنوعی مولد

در این مرحله باید صراحتاً اعلام شود که آیا در هر مرحله‌ای از پژوهش یا نگارش مقاله از ابزارهای هوش مصنوعی مولد (مانند ChatGPT، Claude، Gemini  و سایر مدل‌های مشابه) استفاده شده است یا خیر. استفاده پنهانی یا غیرشفاف از این ابزارها می‌تواند نتایج غیرقابل اعتمادی به همراه داشته باشد و در موارد شدید حتی تقلب علمی تلقی شود. بنابراین اگر در هر بخش از مطالعه (مثلاً ایده‌پردازی، ویرایش متن یا تحلیل داده‌ها) از چنین ابزاری استفاده شده، باید این موضوع در مقاله ذکر گردد. در مقابل، اگر هیچ ابزاری از نوع مذکور به کار نرفته باشد، نویسندگان باید به‌وضوح این عدم استفاده را گزارش دهند تا شفافیت حفظ شود.

توجه کنید: این بند تنها ابزارهای هوش مصنوعی مولد را شامل می‌شود و ابزارهای ترجمه ساده مانند Google Translate در نظر گرفته نمی‌شوند.

مثال: در آماده‌سازی متن این مقاله، نویسندگان از ابزار ChatGPT نسخه ۳.۵ (OpenAI) برای اصلاح اشتباهات دستور زبان استفاده کردند. تمام خروجی‌های تولیدشده توسط این ابزار توسط خود نویسندگان بازبینی و تأیید شده است.

 

۲. مشخصات ابزار هوش مصنوعی مولد

در این بخش باید جزئیات ابزار یا ابزارهای استفاده‌شده شامل نام دقیق ابزار (برای مثال ChatGPT، Bard یا سایر مدل‌های مشابه)، نسخه یا تاریخ انتشار آن (مثلاً نسخه منتشر شده در مارس ۲۰۲۳)، دوره زمانی استفاده (تاریخ‌های مشخص یا بازه زمانی که پرامپت‌ها ارسال شدند)، رابط کاربری به‌کاررفته (استفاده تحت وب یا با استفاده از رابط‌ برنامه‌نویسی) و تنظیمات کلیدی به‌صورت شفاف گزارش شوند تا خوانندگان بتوانند شرایط دقیق به‌کارگیری ابزار را به ‌خوبی درک کنند. در میان تنظیمات کلیدی،  Temperature پارامتری است که میزان تصادفی بودن پاسخ‌ها را تعیین می‌کند (عدد بالاتر برابر است با پاسخ‌های متنوع‌تر و غیرقابل‌پیش‌بینی‌تر) و Max Token Length بیشینه تعداد توکن‌هایی را مشخص می‌کند که مدل می‌تواند در یک پاسخ تولید کند.

مثال: در این پژوهش از مدل ChatGPT‑4 شرکت OpenAI استفاده شد؛ نسخه مدل مورد استفاده در مارس ۲۰۲۳ منتشر شده است. پرامپت‌ها از تاریخ ۱۰ تا ۱۵ تیر ۱۴۰۲ (ژوئن ۲۰۲۳) از طریق API (رابط برنامه‌نویسی) به مدل ارسال شدند. مقدار Temperature برابر 0 تعیین گردید تا پاسخ‌های تولیدی کمترین تصادفی بودن را داشته باشند و Max Token Length برابر با 1024 تنظیم شد تا پاسخ‌های حاصل در یک بازه معین باقی بمانند.

 

۳. تکنیک‌های پرامپت نویسی

اگر در تولید محتوا یا تحلیل‌ها از تکنیک خاصی برای پرامپت نویسی استفاده شده، باید این موضوع را توضیح دهید و حتی پاسخ‌های خام (بدون ویرایش) هوش مصنوعی هم ارائه کنید. طراحی دقیق پرامپت تأثیر زیادی بر کیفیت پاسخ‌های هوش مصنوعی مولد دارد، بنابراین نگهداری سوابق گفتگوها کمک می‌کند داوران و خوانندگان روند تولید پاسخ‌ها را بازسازی کنند. در صورت امکان، گفتگوهای کامل کاربر و مدل به عنوان ضمیمه‌ای به مقاله اضافه گردد تا قابلیت تکرار آزمایش وجود داشته باشد.

مثال: برای تحلیل الگوی مکالمات بیماران، از روش «few-shot prompting» استفاده شد. ابتدا چند مثال از مکالمات واقعی بدون بیماری مشخص به ChatGPT داده شد، سپس پرسش «اگر همین موقعیت در یک بیمار با سابقه بیماری قلبی رخ دهد، چه پاسخی تولید خواهد شد؟» مطرح گردید. همه پاسخ‌های تولیدی دقیقاً ذخیره و به عنوان داده‌های تکمیلی گزارش شدند تا قابل بررسی و بازتولید باشند.

 

۴. مدل‌های جدید توسعه‌یافته

اگر پژوهشگران خود یک مدل یا ابزار جدید بر پایه یک مدل هوش مصنوعی مولد موجود ایجاد کرده یا مدل جدیدی توسعه داده‌اند، باید مشخصات مدل پایه (اصلی) را گزارش دهند. به عبارت دیگر، نام مدل اولیه (مثلاً GPT-3،LLaMA  و غیره)، نسخه و تاریخ انتشار آن ذکر شود. جزئیات بیشتری مانند روش آماده‌سازی مدل یا داده‌های به‌کاررفته نیز می‌توانند به اختصار آورده شوند.

توجه کنید: این بند فقط مربوط به کسانی است که مدل سفارشی یا جدید ساخته‌اند؛ در غیر این صورت (برای مدل‌های عمومی شناخته‌شده مانند ChatGPT یا Claude) نیازی به گزارش این موضوع نیست.

مثال: در این مطالعه، یک مدل اختصاصی برای طبقه‌بندی تصاویر رادیولوژی توسعه داده شد. مدل پایه‌ی آن LLaMA-65B (نسخه اصلی منتشرشده در ژانویه ۲۰۲۳) بود. ما با استفاده از آماده‌سازی نظارت‌شده و داده‌های بالینی آموزشی، این مدل را تنظیم مجدد کردیم تا برای داده‌های تخصصی بیمارستان آماده شود.

 

۵. نقش ابزار در مراحل مطالعه

باید توضیح دهید که ابزار هوش مصنوعی در چه مرحله‌هایی از مطالعه و با چه نقش‌هایی به کار رفته است. برای مثال آیا از ابزار برای ویرایش دستور زبان، ایده‌پردازی ساختار مقاله، تحلیل داده یا جمع‌آوری اطلاعات اولیه استفاده شده است؟ تمام این نقش‌ها باید صریحاً گزارش شوند. شفاف کردن نقش ابزارها کمک می‌کند خواننده متوجه شود چه قسمت‌هایی از کار به کمک هوش مصنوعی شکل گرفته است و چه تغییراتی ایجاد شده است.

مثال: در این تحقیق ابزار ChatGPT برای اصلاح خطاهای دستورز زبان استفاده شد. پس از تولید متن اولیه توسط مدل، نویسندگان آن را بازبینی کرده و اصلاحات نهایی را انجام دادند تا مطابقت با اهداف پژوهش حفظ شود.

 

۶. بخش‌های کمک‌گرفته از هوش مصنوعی

در این قسمت مشخص کنید که دقیقاً در کدام بخش‌ها یا پاراگراف‌های مقاله از هوش مصنوعی استفاده شده است. اگر ابزار تنها به عنوان ویراستار زبانی کل متن به کار رفته، معمولاً همه‌ی بخش‌ها مورد استفاده قرار می‌گیرند و نیاز به ذکر بخش مشخص نیست. اما اگر در بخش‌های خاصی (مثلاً بخش روش‌ها، نتایج یا بحث) از هوش مصنوعی مولد برای تولید محتوا یا تحلیل داده‌ها استفاده شده، آن بخش‌ها را نام ببرید.

توجه کنید: تمایز این بخش با بند قبلی در این است که در بند قبلی نقش کلی ابزار بیان می‌شود و در این بند جای دقیق (بخش یا پاراگراف) استفاده آورده می‌شود.

مثال ۱: در این مقاله از ChatGPT-4 استفاده شده است. این ابزار صرفاً برای ویرایش دستور زبان به کار رفته و در نتیجه هیچ بخش خاصی را نمی‌توان دقیقاً نام برد. تمام متن مقاله پس از تولید، توسط نویسندگان بازنگری و اصلاح شده است.

مثال ۲:  ChatGPT-4برای تحلیل آماری داده‌های کلینیکی در بخش نتایج به کار گرفته شد؛ پاسخ‌های اولیه ابزار پس از تولید توسط پژوهشگران چک و ویرایش گردید.

 

۷. صحت‌سنجی محتوا

باید توضیح دهید که محتواهای تولیدشده توسط ابزارهای هوش مصنوعی چگونه بررسی شده و در صورت نیاز اصلاح گردیده است. خروجی‌های هوش مصنوعی مولد ممکن است اشتباه یا ناصحیح باشند، بنابراین توصیه می‌شود هر متن یا داده‌ی تولیدشده به دقت توسط نویسنده انسانی صحت‌سنجی و ویرایش شود. به عنوان مثال اگر ابزار در بازنویسی مقاله کمک کرده، نویسندگان باید متن تولیدشده را با متن اصلی یا منابع معتبر مقایسه کنند تا اطمینان حاصل شود معنا تغییر نکرده است. اگر اصلاً صحت‌سنجی صورت نگرفته، باید دلیل آن توضیح داده شود.

مثال: پس از تولید نتایج با کمک ابزار، نویسندگان تمامی داده‌ها را با منابع و نتایج آزمایشگاهی مقایسه کرده و خطاهای احتمالی را اصلاح نمودند. به عنوان مثال، هر بار که مدل یک مقدار آماری پیشنهاد داد، این مقدار با داده‌های تجربی بررسی و در صورت نیاز جایگزین شد تا اطمینان حاصل شود نتایج درست باشند.

 

۸. حفاظت از حریم خصوصی داده‌ها

در این بند باید اشاره شود که هنگام استفاده از ابزارهای هوش مصنوعی، حریم خصوصی و محرمانگی داده‌ها چگونه حفظ شده است. بسیاری از ابزارهای هوش مصنوعی مولد داده‌های ورودی را ذخیره یا برای پیشرفت مدل استفاده می‌کنند، بنابراین هر گونه اطلاعات حساس و شخصی (به ویژه داده‌های بیماران) پیش از ارسال به مدل باید حذف یا ناشناس‌سازی شود. به کارگیری روش‌های رمزگذاری، حذف شناسه‌های شخصی و رعایت قوانین اخلاقی و مقررات حفاظت از داده‌های بیمار لازم است. به طور خلاصه، مطمئن شوید هیچ اطلاعات شناسایی در ابزار قرار نمی‌گیرد.

مثال: پیش از ارسال اطلاعات بهChatGPT، کلیه مشخصات هویتی بیمار حذف شد و داده‌های پزشکی با یک کد ناشناس به مدل داده شد. علاوه بر این، ارتباط با مدل از طریق API ایمن درون سازمانی صورت گرفت تا هیچ اطلاعاتی بر بستر عمومی منتقل نشود.

 

۹. تأثیر بر نتایج و نتیجه‌گیری

در نهایت باید توضیح دهید که استفاده از ابزار هوش مصنوعی چگونه می‌تواند بر تفسیر نتایج یا نتیجه‌گیری‌های مقاله اثر گذاشته باشد. اگر ابزار تنها برای ویرایش متن به کار رفته باشد، معمولاً تأثیری بر محتوای علمی نتایج نخواهد داشت (مشروط بر اینکه پرسش‌های اولیه به شکل واضح مطرح شده باشند). اما اگر ابزار مستقیماً محتوای جدیدی تولید کرده (مثلاً تحلیل داده)، باید تأثیر آن بر نتایج بررسی شود. در این بخش باید ذکر شود که آیا به کمک هوش مصنوعی جهت نتایج تغییر کرده یا خیر. در نهایت همه نویسندگان مسئولیت درستی نهایی نتیجه‌گیری‌ها را بر عهده دارند.

مثال: نویسندگان اظهار داشتند که ChatGPT صرفاً برای اصلاح دستور زبان به کار رفته است و تغییری در نتایج آزمایشگاهی ایجاد نکرده. تمامی نتایج بر اساس داده‌های جمع‌آوری‌شده توسط تیم پژوهش تأیید شد و هوش مصنوعی فقط در بهبود نگارش کمک‌رسانی کرده است.

 

منبع

Luo X, Tham YC, Giuffrè M, et al. Reporting guideline for the use of Generative Artificial intelligence tools in MEdical Research: the GAMER Statement. BMJ Evidence-Based Medicine. Published Online First: 13 May 2025. doi: 10.1136/bmjebm-2025-113825

دسته بندی‌ها:

دیدگاه شما

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *