داخلی
»سخن هفته
لیزنا؛ الهه حسینی، دانشآموخته دکتری علم اطلاعات و دانش شناسی، مدرس دانشگاه الزهرا (س): پردازش زبان طبیعی (NLP) نقش مهمی در عملکرد چتجیپیتی(ChatGPT) دارد. چتجیپیتی یک ربات گفتگوی هوش مصنوعی است که برای پاسخ دادن به سؤالات کاربران از شبکههای عصبی پیشرفته استفاده میکند.پردازش زبان طبیعی، شامل مجموعهای از الگوریتمها و تکنیکهای مختلف است که به سیستمهای هوش مصنوعی کمک میکند تا زبان طبیعی را درک کنند و با آن ارتباط برقرار کنند.NLP میتواند به چتجیپیتی کمک کند تا با استفاده از تحلیل ساختار جملات، تحلیل معنای کلمات و تفسیر مفاهیم پاسخهای درست و منطقی به سؤالات کاربران ارائه دهد، همچنین، میتواند کمک کند که به درستی تشخیص دهد که چه نوع سؤالی پرسیده شده است و برای پاسخ دادن به آن، چه اطلاعاتی لازم است. به طور کلی، NLP به چتجیپیتی کمک میکند تا بهترین پاسخ را برای سؤالات کاربران ارائه دهد و باعث افزایش دقت و کارایی آن شود. قدرت چتجیپیتی توانایی تجزیه پرسوجوها و تولید پاسخها و نتایج کاملاً منسجم بر اساس اطلاعات بیشتر مبتنی بر متن در دسترس دیجیتالی جهان است – یعنی حداقل اطلاعاتی که در زمان آموزش قبل از سال 2021 وجود داشته است.
مهمترین الگوریتم پردازش زبان طبیعی در عملکردچتجیپیتی ، الگوریتم تولید زبان طبیعی (Natural Language Generation) است. این الگوریتم به چتجیپیتی کمک میکند تا به صورت خودکار پاسخهای مناسب و درست را برای سؤالات کاربران تولید کند. این الگوریتم با استفاده از شبکههای عصبی پیشرفته و مدلهای زبانی، جملات و متنهایی را تولید میکند که طبیعی و منطقی به نظر میرسند و با سؤالات کاربران همخوانی دارند. به این ترتیب، چتجیپیتی با استفاده از الگوریتم تولید زبان طبیعی، میتواند به بهترین شکل ممکن به سؤالات کاربران پاسخ دهد و تجربه کاربری بهتری را برای آنها فراهم کند.
چتجیپیتی-4 نمایندهی یک پیشرفت عمده در حوزه پردازش زبان طبیعی است.
این نسخه پیشرفتهی مدل زبانی Generative Pretrained Transformer (GPT) توسط OpenAI توسعه داده شده است و برای تولید متن شبیه به انسان با پیشبینی کلمه بعدی در جمله بر اساس کلمات قبلی طراحی شده است. این نسخه پیشرفته مدل زبانی از طریق مجموعهای بزرگ از دادههای متنی از جمله کتابها، مقالات و صفحات وب آموزش داده شده است . چتجیپیتی -4 با ظرفیت بیش از یک تریلیون پارامتر، یکی از بزرگترین مدلهای زبان در دسترس است در حالی که نسخه پیشین آن(GPT-3 ) ۱۷۵ میلیارد پارامتر داشته است. این افزایش ظرفیت به این معناست که چتجیپیتی -4 قادر است متن هایی با واقع گرایی و پیچیدگی بیشتر و با دقت بیشتری تولید کند. این مدل قادر به انجام کارهای پیچیدهتر مانند ترجمه، خلاصه سازی و پاسخ به سوالات است. علاوه بر این، کنترل بهتری روی متن تولید شده دارد و میتواند بهترین فهم را نسبت به بافت و منظور متن داشته باشد.
چتجیپیتی -4 همچنین قابلیتهای پیشرفتهای برای درک و تولید متن در زبانهای مختلف دارد، از جمله زبانهایی با منابع کم که به طور معمول کنترل آن برای مدلهای زبانی چالش برانگیز است. این به دلیل فرآیند آموزش پیشرفته با استفاده از مجموعهای گسترده از دادههای متنی در زبانها و حوزههای مختلف است که مرزهای تولید متون توسط هوش مصنوعی را تغییر می دهد. قابلیت درک و تولید متن شبیه به انسان با دقت و پیچیدگی بالا ، از جمله مزیت هایی است که برای ترجمه زبان و ایجاد محتوا بسیار مناسب است.
در ادامه به برخی الگوریتم ها و تکنیک های استفاده شده در چت جی پی تی-۴ به طور مختصر اشاره می شود:
پیش آموزش (Pre-Training):
چتجیپیتی نیز همانند کارکرد گوگل دارای دو مرحله جمع آوری داده و استنتاج حاصل از تعامل کاربر است. مرحله جمع آوری دادهها، پیشآموزش نامیده میشود، در حالی که مرحله پاسخگویی و تعامل کاربر، استنتاج نامیده می شود. جادوی پشت هوش مصنوعی مولد و دلیل منفجر شدن ناگهانی آن این است که روش کار پیشآموزش بسیار مقیاسپذیر است.
به طور کلی، هوش مصنوعی با استفاده از دو رویکرد اصلی تحت نظارت و بدون نظارت پیشآموزش میبیند. برای اکثر پروژههای هوش مصنوعی تا زمان تولید فعلی سیستم ای هوش مصنوعی مولد مانند چتجیپیتی، از رویکرد نظارت شده استفاده می شد.
پیشآموزش تحت نظارت، فرآیندی است که در آن یک مدل بر روی یک مجموعه داده برچسبگذاری شده آموزش داده میشود، جایی که هر ورودی با یک خروجی مربوطه مرتبط است. همانطور که ممکن است تصور کنید، محدودیتهایی برای مقیاسپذیری وجود دارد. پیشبینی تمام سوالاتی که همیشه پرسیده میشود، غیرممکن است، بنابراین واقعاً هیچ راهی وجود ندارد که چتجیپیتی با یک مدل نظارت شده آموزش داده شود. در عوض، چتجیپیتی از پیش آموزش بدون نظارت استفاده میکند - و این رویکرد، تغییر دهنده اصلی بازی است.
پیشآموزش بدون نظارت، فرآیندی است که طی آن یک مدل بر روی دادههایی که هیچ خروجی خاصی با هیچ ورودی مشخصی، مرتبط نیست، آموزش داده میشود. در عوض، مدل برای یادگیری ساختار و الگوهای اساسی در داده های ورودی بدون هیچ کار خاصی در ذهن آموزش داده شده است. این فرآیند اغلب در کارهای یادگیری بدون نظارت، مانند خوشهبندی، تشخیص ناهنجاری و کاهش ابعاد استفاده می شود. در زمینه مدلسازی زبان، میتوان از پیشآموزش بدون نظارت برای آموزش مدل برای درک نحو و معنای زبان طبیعی استفاده کرد تا بتواند متنی منسجم و معنادار در یک زمینه محاورهای تولید کند. این رویکرد، مدل را آموزش میدهد تا کلمه بعدی را در یک دنباله متن بر اساس کلمات قبلی پیشبینی کند. به عبارت دیگر، این فرآیند پیش آموزش، مدل را قادر می سازد تا رابطه های آماری بین کلمات در یک مجموعه بزرگی از متن را یاد بگیرد.
معماری ترانسفورمر (Transformer Architecture):
در سال 2017، مقاله ای نوآورانه با عنوان "Attention Is All You Need" معماری ترانسفورمر را معرفی کرد. معماری ترانسفورمر (تبدیلکننده) یک معماری شبکه عصبی که برای وظایف پردازش زبان طبیعی طراحی شده است.. یک شبکه عصبی نحوه عملکرد مغز انسان را با پردازش اطلاعات از طریق لایه هایی از گره های به هم پیوسته شبیهسازی می کند. ترانسفورمر از چندین لایه تشکیل شده است که هر یک دارای چندین لایه فرعی است. دو لایه فرعی اصلی عبارتند از لایه توجه به خود (self-attention) و لایه پیشخور(Feedforward). لایه توجه به خود اهمیت هر کلمه را در دنباله محاسبه میکند، در حالی که لایه پیشخور، تبدیلهای غیرخطی را به دادههای ورودی اعمال میکند. این لایه ها به ترانسفورمر کمک می کند تا روابط بین کلمات را در یک دنباله یادبگیرد و درک کند.
در طول آموزش، داده های ورودی مانند یک جمله به ترانسفورمر داده می شود و از آن خواسته می شود تا بر اساس آن ورودی، پیشبینی کند. این مدل بر اساس میزان مطابقت پیشبینی آن با خروجی واقعی به روز می شود. از طریق این فرآیند، ترانسفورمر یاد می گیرد که بافت و روابط بین کلمات را در یک دنباله درک کند، و آن را به ابزاری قدرتمند برای وظایف پردازش زبان طبیعی مانند ترجمه زبان و تولید متن تبدیل میکند. معماری ترانسفورمر دنبالهای از کلمات را با استفاده از مکانیزم «توجه به خود» برای سنجش اهمیت کلمات مختلف در یک دنباله هنگام پیشبینی پردازش میکند. توجه به خود شبیه روشی است که خواننده ممکن است به یک جمله یا پاراگراف قبلی در بافت مورد نیاز برای درک یک کلمه جدید در کتاب نگاه کند. ترانسفورمر برای درک بافت و روابط بین کلمات به همه کلمات به ترتیب نگاه می کند.
بنابراین، آنچه معماری ترانسفورمر را از سایر ساختمان های شبکه عصبی متمایز می کند، استفاده از«توجه به خود» است. این تکنیک نوآورانه به مدل اجازه می دهد تا به طور انتخابی به بخش های مختلف دنباله ورودی توجه کند، که باعث بهبود کارایی و اثربخشی آن می شود. با تمرکز بر بخش های مربوطه ورودی، ترانسفورمر می تواند پیش بینی های دقیقتری تولید کند و نتایج بهتری را به دست آورد.
مکانیزمهای توجه:
مکانیزمهای توجه، اجزای کلیدی معماری ترانسفورمر هستند. آنها به مدل اجازه میدهند تا هنگام پیشبینی بخشهای خاصی از دنباله ورودی را مورد توجه قرار دهد. چندین نوع مکانیزم توجه وجود دارد، اما آنچه که در معماری ترانسفورمر استفاده میشود، با نام «توجه به خود» شناخته میشود.در آن، مدل برای هر جایگاه در دنباله ورودی، یک مجموعه وزن توجه را بر اساس اهمیت آن جایگاه برای سایر جایگاههای دنباله محاسبه میکند. سپس این وزنهای توجه برای محاسبه مجموعه وزندار حالتهای پنهان به کار میروند که به عنوان ورودی به لایه بعدی مدل استفاده میشوند. این فرآیند به ترانسفورمر اجازه میدهد تا به طور کارآمد مقادیر بزرگی از داده را پردازش کرده و پیشبینیهای دقیقی ایجاد کند.
این شامل یک رمزگذار (encoder ) و یک رمزگشا (decoder ) است که هر دو شامل چندین لایه از مکانیزمهای «توجه به خود» هستند. رمزگذار دنباله ورودی را دریافت می کند و یک دنباله از حالت های پنهان تولید می کند، در حالی که رمزگشا حالت های پنهان را دریافت می کند و دنباله خروجی را تولید می کند. مکانیزم «توجه به خود» به مدل اجازه می دهد که بیشتر بر بخش های خاصی از دنباله ورودی بر اساس ربط آنها با وظیفه در دست تمرکز کند.به عنوان مثال، در ترجمه زبان، مدل می تواند بیشتر به کلمات خاصی در جمله منبع توجه کند که بیشتر به ترجمه یک کلمه خاص در جمله هدف مرتبط باشند.
تنظیم دقیق(Fine-Tuning ):
تنظیم دقیق فرآیندی است که در آن پارامترهای یک مدل باید به صورت خیلی دقیقی تنظیم شوند تا مدل با مشاهدات مشخصی تناسب پیدا کند. این فرآیند در یادگیری ماشین یک فرایند بسیار متداول است که در آن با اضافه کردن لایه های جدید مدل از پیش آموزش داده شدهای، سعی میشود که پارامتر های آن مدل حاصل به گونه ای تنظیم شود که دقت مدل روی یک مجموعه داده جدید نیز بالا رود.
پس از پیشآموزش، چتجیپیتی -4 به تنظیم دقیق و نهایی روی وظایف خاصی مانند پاسخگویی به سوال یا تکمیل متن میپردازد. تنظیم دقیق شامل آموزش مدل در یک مجموعه داده کوچک و خاص به وظیفه در دست است. به عنوان مثال، در پاسخگویی به سوال، مدل بر روی یک مجموعه داده سوال و پاسخ آموزش داده میشود و وزنها و سوگیریهای آن برای بهینهسازی عملکردش در این وظیفه تنظیم میشود.
جستجوی پرتو (Beam Search ):
چتجیپیتی-۴ یک مدل زبان پیشرفته است که از الگوریتمهای پیشرفته برای تولید پاسخهای منسجم و متنوع استفاده میکند. یکی از تکنیکهای کلیدی، جستجوی پرتومحلی است که شامل بررسی چندین گزینه در هر مرحله برای انتخاب محتملترین دنباله کلمات برای پاسخ است. مدل برای هر گزینه یک امتیاز محاسبه میکند و گزینهای را که بیشترین احتمال را دارد، انتخاب میکند.مدل زبانی، یک وظیفه مهم در پردازش زبان طبیعی است. این شامل پیشبینی احتمال دنبالهای از کلمات، با توجه به کلمات قبلی است. در مورد چتجیپیتی-۴، مدل برای پیشبینی احتمال کلمه بعدی در یک دنباله، آموزش داده میشود. این کار با استفاده از تکنیک برآورد درستنمایی بیشینه (maximum likelihood estimation (MLE)) صورت میگیرد که منفی لگاریتم درستنمایی کلمه بعدی صحیح با توجه به کلمات قبلی را به حداقل می رساند.
نمونه گیری بالاترین پی ( Top-p Sampling):
علاوه بر جستجوی پرتو، چتجیپیتی-۴ از نمونهگیری بالاترین-پی استفاده میکند تا پاسخهای متنوعی تولید کند. این تکنیک، کلمات را به صورت تصادفی از گزینههای پراحتمال به منظور جلوگیری از پاسخهای تکراری یا عمومی براساس یک آستانه احتمال انتخاب میکند. به عنوان مثال، در صورت پرسیدن درباره رنگ مورد علاقه، چتجیپیتی-۴ ممکن است به صورت تصادفی کلماتی مانند آبی، قرمز یا سبز را از گزینههای پراحتمال براساس آستانه احتمال انتخاب کند.به طور کلی، الگوریتمهای چتجیپیتی-۴ بر اساس آخرین تحقیقات در پردازش زبان طبیعی و یادگیری عمیق بنیانگذاری شدهاند و به طور مداوم در حال بهبود عملکرد مدل در گسترهای از وظایف هستند.
یادگیری انتقالی (Transfer Learning ):
یادگیری انتقالی ، یک تکنیک قدرتمند است که شامل پیشآموزش مدل بر روی یک مجموعه داده عمومی و بزرگ و سپس تنظیم دقیق آن بر روی یک مجموعه داده کوچکتر و خاصتر است. این رویکرد در زمینه پردازش زبان طبیعی به طور گستردهای پذیرفته شده و ثابت شده است که در بهبود دقت و کارایی مدلهای زبانی بسیار موثر است.در مورد نسخه سوم چتجیپیتی ، مدل بر روی یک مجموعه بزرگ از دادههای متنی با استفاده از یک تکنیک پیشآموزش بدون ناظر آموزش دیده است. در طول پیشآموزش، مدل یاد میگیرد که بهترین پاسخ برای کلمات از دست رفته در دنباله ورودی را پیشبینی کند، که به آن کمک میکند تا یک نمایش غنی از ساختار اساسی زبان طبیعی را یاد بگیرد. پس از پایان پیشآموزش، مدل میتواند بر روی وظایف خاص، مانند پاسخ به سوالات یا طبقهبندی متن، تنظیم دقیق شود.
مدیریت گفتگو: (Dialogue management)
ممکن است چتجیپیتی سؤالاتی بپرسد تا هدف شما را از پرسش روشن کند یا نیازهای شما را بهتر درک کند و پاسخهای شخصیسازی شده را ارائه دهد که کل تاریخچه مکالمه را در نظر بگیرد. اینگونه است که چتجیپیتی می تواند مکالمات چند نوبتی را با کاربران به روشی طبیعی و جذاب داشته باشد. این شامل استفاده از الگوریتم ها و تکنیک های یادگیری ماشین برای درک زمینه یک مکالمه و حفظ آن در مبادلات چندگانه با کاربر است.
مدیریت گفتگو یکی از جنبههای مهم پردازش زبان طبیعی است؛ زیرا به برنامههای رایانهای اجازه میدهد تا با افراد به گونهای تعامل داشته باشند که بیشتر شبیه یک مکالمه باشد. این رویکرد می تواند به ایجاد اعتماد و تعامل با کاربران کمک کند و در نهایت منجر به نتایج بهتری برای کاربر شود.
مشارکت انسانی در پیش آموزش:
یکی از چالش های کلیدی در اجرایNLP، مقابله با پیچیدگی و ابهام زبان انسان است. الگوریتمهای پردازش زبان طبیعی باید روی مقادیر زیادی داده آموزش ببینند تا الگوها را بشناسند و تفاوتهای ظریف زبان را بیاموزند. آنها همچنین باید به طور مداوم اصلاح و به روز شوند تا با تغییرات استفاده از زبان وبافت هماهنگی داشته باشند.این فناوری با تجزیه ورودیهای زبان، مانند جملات یا پاراگرافها، به اجزای کوچکتر و تجزیه و تحلیل معانی و روابط آنها برای ایجاد بینش یا پاسخ کار میکند. فنآوریهای NLP از ترکیبی از تکنیکها، از جمله مدلسازی آماری، یادگیری ماشینی، و یادگیری عمیق استفاده میکنند تا الگوها را بشناسند و از مقادیر زیادی داده یاد بگیرند تا به طور دقیق تفسیر و تولید کنند.
علیرغم مقیاسپذیری ذاتی پیشآموزش بدون نظارت، شواهدی وجود دارد که کمکهای انسانی ممکن است در آمادهسازی چتجیپیتی برای استفاده عمومی نقش داشته باشد.
مقاله ای در Martechpost، یک خبرنامه هوش مصنوعی منتشر شده است، بیان میکند که مدل زبانی بزرگ با استفاده از فرآیندی به نام یادگیری تقویتی از بازخورد انسانی Reinforcement Learning from Human Feedback (RLHF) آموزش داده شده است. بر اساس این مقاله، "فرایند آموزش شامل یک مدل اولیه تنظیم شده با استفاده از یادگیری نظارت شده است، با مربیان انسانی که هم نقش کاربر و هم یک دستیار هوش مصنوعی را بازی می کنند."
در اینجا نکات ظریفی وجود دارد، وقتی صحبت از معنای کلمه «آموزش» می شود. به گفته خود چتجیپیتی، " از یادگیری تقویتی با بازخورد انسانی برای آموزش من استفاده نشده است. در عوض، من با استفاده از ترکیبی از تکنیک های یادگیری بدون نظارت و با نظارت، مانند مدل سازی زبان، رمزگذاری خودکار، و پیش بینی توالی، از قبل آموزش دیدم. آموزش شامل پردازش حجم عظیمی از داده های متنی از اینترنت بود که به من امکان داد الگوها و روابط بین کلمات و عبارات را بیاموزم." اما تصریح کرده است: "با این حال، زمانی که من از قبل آموزش دیدم، محققان و توسعهدهندگان میتوانند از یادگیری تقویتی با بازخورد انسانی برای تنظیم دقیق من برای وظایف یا حوزههای خاص، مانند پاسخ دادن به سوالات یا تولید متن استفاده کنند. در این موارد، انسانها می توانند بازخورد خود را در قالب پاداش یا جریمه ارائه دهند، که می تواند برای به روز رسانی پارامترهای من و بهبود عملکرد من در کارهای مشابه در آینده استفاده شود."
مجموعه داده های آموزشی چتجیپیتی:
چتجیپیتی -3 بر روی مجموعه داده ای به نام WebText2 حاوی کتابخانه ای با بیش از 45 ترابایت داده متنی آموزش داده شده است. OpenAI توسعه دهنده چتجیپیتی مجموعه داده ای به نام Persona-Chat منتشر کرده است که به طور خاص برای آموزش مدلهای هوش مصنوعی محاورهای مانند چتجیپیتی طراحی شده است. این مجموعه داده شامل بیش از 160000 دیالوگ بین دو شرکتکننده انسانی است که به هر شرکتکننده یک شخصیت منحصر به فرد اختصاص داده شده است که پیشینه، علایق و شخصیت آنها را توصیف میکند. این به چتجیپیتی اجازه میدهد تا نحوه ایجاد پاسخهایی را که شخصیسازی شده و مرتبط با زمینه خاص مکالمه هستند، بیاموزد .علاوه برPersona-Chat، بسیاری از مجموعه دادههای مکالمه دیگر وجود دارد که برای تنظیم دقیق چتجیپیتی استفاده میشود. در ادامه چند نمونه ذکر میشوند.
Cornell Movie Dialogs Corpus : مجموعه داده ای حاوی مکالمات بین شخصیتها در فیلمنامههای فیلم است. این شامل بیش از 200000 تبادل مکالمه بین بیش از 10000 جفت شخصیت فیلم است که طیف متنوعی از موضوعات و ژانرها را پوشش میدهد.
Ubuntu Dialogue Corpus : مجموعه ای از گفتگوهای چند نوبتی بین کاربرانی که به دنبال پشتیبانی فنی هستند و تیم پشتیبانی انجمن اوبونتو است. این مجموعه شامل بیش از 1 میلیون دیالوگ است که آن را به یکی از بزرگترین مجموعه دادههای عمومی در دسترس برای تحقیق در مورد سیستمهای گفتگو تبدیل میکند.
DailyDialog : مجموعه ای شامل گفتگوهای انسان به انسان در موضوعات مختلف، از گفتگوهای زندگی روزمره تا بحث در مورد مسائل اجتماعی است. هر دیالوگ در مجموعه داده از چندین نوبت تشکیل شده است و با مجموعه ای از اطلاعات احساسات، احساسات و موضوع برچسب گذاری شده است.
The Common Crawl corpus: مجموعه Common Crawl حاوی چند پتابایت داده است که طی 12 سال خزیدن وب جمع آوری شده است. مجموعه شامل داده های خام صفحه وب، استخراج فرادادهها و متن است. دادههای Common Crawl در مجموعه دادههای عمومی خدمات وب آمازون و در چندین پلتفرم ابری دانشگاهی در سراسر جهان ذخیره میشوند.
BookCorpus dataset: مجموعه بزرگی از کتاب های رمان رایگان نوشته شده توسط نویسندگان منتشر نشده است که شامل 11038 کتاب (حدود 74 میلیون جمله و 1گیگ کلمه) از 16 زیرژانر مختلف است.
OpenWebText: این مجموعه شامل 6 بیلیون توکن متن از منابع مختلف وب مانند Reddit، StackExchange و دیگر انجمن هاست.
English Gigaword: این مجموعه شامل متون اخبار از منابع مختلف خبری مانند رویترز است.
علاوه بر این مجموعه داده ها، چتجیپیتی بر روی حجم زیادی از دادههای ساختارنیافته در اینترنت، از جمله وب سایتها، کتابها و سایر منابع متنی آموزش دیده است. این روش به چتجیپیتی اجازه داد تا در مورد ساختار و الگوهای زبان در معنای کلی بیاموزد، که سپس می تواند برای برنامههای خاص مانند مدیریت گفتگو یا تجزیه و تحلیل احساسات به طور دقیق تنظیم شود.
نتیجه گیری:
با چنین تحولات چشمگیری در این حوزه، میتوان انتظار داشت که مدلهای پیشرفتهتری با استفاده از این رویکردها و الگوریتمها، و تکنیکهای یادگیری عمیق، و شبکههای عصبی ساخته شوند. آینده این حوزه با تمرکز بر توسعه مدلهای بزرگ زبانی امیدبخش وقابل پیشبینی است که میتواند مرزهای قابل دستیابی در پردازش زبان طبیعی را بیشتر گسترش دهد. امید است که بر محدودیتها و چالشهایی مانند عدم درک رباتهای گفتگو از بافت و دانش پسزمینه متن تولید شده در نسخههای آتی با تمرکز بر رویکردهای هوش مصنوعی معنایی، استدلال معنایی، و گرافهای دانش غلبه شود.
حسینی، الهه. « نقش پردازش زبان طبیعی در عملکرد چتجیپیتی». سخن هفته لیزنا، شماره 648، 5تیرماه ۱۴۰۲.
منابع:
Bossi, Emerson (2023). How ChatGPT is revolutionizing the field of NLP and creating new opportunities. Available at: https://ideamaker.agency/custom-software-development/revolution-in-nlp-with-chatgpt/
Gewirtz, David (2023). How does ChatGPT work? Available at: https://www.zdnet.com/article/how-does-chatgpt-work/
Hutanu , Alexandru (2023). How ChatGPT works and AI, ML & NLP Fundamentals. Available at: https://www.pentalog.com/blog/tech-trends/chatgpt-fundamentals/
Majumder, Eeman (2022). ChatGPT-what is it and how does it work exactly? Available at: https://medium.com/geekculture/chatgpt-what-is-it-and-how-does-it-work-exactly-62e7010524d3
Singh, Meherban (2023). Chat GPT-4 : Algorithms & Techniques. Available at: https://medium.com/ekusimmudreams/chat-gpt-4-algorithms-techniques-da9ec7ce010d
۱. از توهین به افراد، قومیتها و نژادها خودداری کرده و از تمسخر دیگران بپرهیزید و از اتهامزنی به دیگران خودداری نمائید.
۲.از آنجا که پیامها با نام شما منتشر خواهد شد، بهتر است با ارسال نام واقعی و ایمیل خود لیزنا را در شکل دهی بهتر بحث یاری نمایید.
۳. از به کار بردن نام افراد (حقیقی یا حقوقی)، سازمانها، نهادهای عمومی و خصوصی خودداری فرمائید.
۴. از ارسال پیام های تکراری که دیگر مخاطبان آن را ارسال کرده اند خودداری نمائید.
۵. حتی الامکان از ارسال مطالب با زبانی غیر از فارسی خودداری نمائید.