یادگیری ماشین

مبانی یادگیری ماشین به زبان ساده- قسمت دوم

انواع مسائل یادگیری

این بخش روی تدوین طبقه­بندی برای مسائل یادگیری مختلف متمرکز است. الگوریتم های یادگیری ماشین نیز تحت همین مسائل یادگیری طبقه­بندی می­شوند. شکل زیر انواع مختلفی از مسائل یادگیری را به تصویر می­کشد:

یادگیری ماشین

رده ­بندی

رده­بندی (یا طبقه­ بندی) راهی برای شناسایی تکنیک گروه­بندی برای مجموعه داده­های موجود است؛ به صورتی که بسته به مقدار خروجی یا متغیر مورد هدف، کل مجموعه داده­ها می­تواند به یک کلاس یا رده اختصاص داده شود. این روش به شناسایی الگوهای رفتاری داده­ها کمک می­کند. به طور خلاصه، این روش یک مکانیسم تبعیض یا ممیزی می­باشد.برای مثال، یک مدیر فروش برای شناسایی مشتریان بالقوه به کمک نیاز دارد و می­خواهد تعیین کند که آیا این امر ارزش تلاش و صرف زمانی را که مشتری طلب می­کند را دارد یا خیر. ورودی کلیدی برای شخص مدیر فروش، داده­های مشتری است و معمولاً به این مورد «مجموع ارزش طول عمر» یا Total Lifetime Value (TLV) گفته می شود.در این جا داده­ها را گرفته و کورکورانه آن­ها را بر روی یک نمودار (همانطور که در نمودار زیر نشان داده شده است) رسم می­کنیم. محور x نشانگر تعداد کل کالاهای خریداری شده و محور y کل مبلغ هزینه شده را نشان می­دهد (ضرب در صدهزار تومان). حال بایستی معیاری را تعیین کنیم تا با آن مشتریان را به دو دسته خوب یا بد تقسیم کنیم. در نمودار زیر، کلیه مشتریانی که بیش از هشت­صد هزار تومان در یک خرید واحد هزینه می­کنند، به عنوان مشتریان خوب رده­بندی می­شوند (توجه داشته باشید که این یک نمونه یا تحلیل فرضی است).

رده بندی

حال وقتی اطلاعات مشتری جدیدی وارد می­شود، مدیر فروش می­تواند مشتریان جدید را در این نمودار ترسیم کند و بر اساس این که در کدام طرف خط قرار بگیرد، پیش­بینی کند که احتمالاً مشتری خوب است یا بد.توجه داشته باشید که لازم نیست طبقه بندی همیشه باینری یا دوتایی باشد (بله یا خیر، مرد یا زن، خوب یا بد و غیره) و بر اساس تعریف مسئله می­توان هر تعداد طبقه­بندی را تعریف کرد (فقیر، زیر متوسط، متوسط، بالاتر از متوسط، خوب).

خوشه ­بندی

در بسیاری از موارد، به تحلیلگر داده فقط داده­هایی داده می­شود و انتظار می رود الگوهای جالبی را کشف کند که ممکن است به استخراج اطلاعات کمک کند. تفاوت اصلی این کار با رده­بندی در این است که در مسئله رده­بندی کاربر از قبل می­داند که به دنبالش چه چیزی است (مشتری خوب یا مشتری بد، موفقیت یا شکست و غیره).اکنون می­خواهیم همان مثالی که در بخش رده­بندی گفته شد، گسترش دهیم. در اینجا الگوهای طبقه­بندی مشتریان بدون هیچ هدفی در ذهن یا بدون در نظر گرفتن طبقه­بندی قبلی، شناسایی می­شوند و بر خلاف اجرای رده­بندی، نتایج همیشه ممکن است یکسان نباشند (برای مثال، بسته به نحوه انتخاب مراکز اولیه در هر خوشه). از مدل­های مورد استفاده در خوشه­بندی، می­توان به الگوریتم خوشه­بندی k-میانگین یا k-means اشاره کرد.به جزئیات بیشتر خوشه­بندی به روش k-means به تفصیل در مقاله­ای مجزا پرداخته خواهد شد. روی­هم رفته، خوشه­بندی نوعی تحلیل رده­بندی است که با هدف خاصی در ذهن شروع نمی­شود (خوب/ بد، خرید خواهد کرد/ خرید نخواهد کرد).

خوشه بندی

پیش­ بینی یا رگرسیون

پیش­بینی یا پیش بینی مشابه با طبقه بندی ، همچنین در مورد شناسایی چگونگی اتفاقات در آینده است. این اطلاعات برگرفته از تجربه یا دانش گذشته است. در بعضی موارد داده های کافی وجود ندارد و نیاز به سرپیچی از آینده از طریق رگرسیون است. نتایج پیش بینی و پیش بینی همیشه همراه با میزان عدم اطمینان یا احتمال است. این طبقه بندی از نوع مسئله همچنین استخراج قانون نامیده می شود.بیایید یک مثال در اینجا بیاوریم ، یک دانشمند کشاورزی که روی محصول جدیدی که خودش تولید کرده کار می کند. به عنوان آزمایشی ، این بذر در ارتفاعات مختلف کاشته شد و عملکرد آن محاسبه شد. در اینجا نیاز به پیش بینی عملکرد محصول با توجه به جزئیات ارتفاع (و برخی از نقاط داده های مرتبط دیگر) است. رابطه بین عملکرد به دست آمده و ارتفاع با ترسیم نمودار بین پارامترها مشخص می شود. یک معادله ذکر شده است که بیشتر نقاط داده را در بر می گیرد و در مواردی که داده ها منحنی را مشخص نمی کنند ، می توانیم از شر داده ها خلاص شویم. این تکنیک رگرسیون نامیده می شود.

رگرسیون

یادگیری بدون نظارت

در برخی از مشکلات یادگیری ، هیچ هدف مشخصی برای حل آن نداریم. در بخش قبلی ، خوشه بندی را مورد بحث قرار دادیم ، این یک تجزیه و تحلیل طبقه بندی است که در آن ابتدا با یک هدف مشخص در ذهن شروع نمی کنیم (خوب / بد ، خرید / نخواهیم خرید) و از این رو به عنوان تحلیل یا یادگیری بدون نظارت یاد می شود. هدف در این مورد ، رمزگشایی ساختار در داده ها در برابر نقشه برداری بین صفات ورودی و خروجی داده ها است و در واقع ، ویژگی های خروجی معیوب نیست. این الگوریتم های یادگیری به همین دلیل بر روی مجموعه داده “بدون برچسب” کار می کنند.

یادگیری نیمه نظارت

یادگیری نیمه نظارت بر استفاده از داده های دارای برچسب و بدون برچسب برای یادگیری بهتر مدل ها است. مهم است که فرضیات مناسب برای داده های بدون مارک وجود داشته باشد و هرگونه فرض نامناسب می تواند مدل را باطل کند. یادگیری نیمه نظارت انگیزه خود را از شیوه یادگیری انسانی به دست می آورد.

یادگیری تقویتی

یادگیری تقویتی یادگیری است که بیشترین سود را از نتیجه کسب می کند. به عنوان مثال ، در حالی که به کودکان نوپا عادت های جدید آموزش می دهید ، هربار که پیروی از دستورالعمل ها می شود به آنها پاداش می دهد بسیار خوب عمل می کند. در واقع ، آنها تشخیص می دهند که چه رفتاری به آنها کمک می کند تا جوایز کسب کنند. این یادگیری تقویتی است و به آن یادگیری سنجش اعتبار نیز گفته می شود.یادگیری تقویتی یادگیری است که بیشترین سود را از نتیجه کسب می کند. به عنوان مثال ، در حالی که به کودکان نوپا عادت های جدید آموزش می دهید ، هربار که پیروی از دستورالعمل ها می شود به آنها پاداش می دهد بسیار خوب عمل می کند. در واقع ، آنها تشخیص می دهند که چه رفتاری به آنها کمک می کند تا جوایز کسب کنند. این یادگیری تقویتی است و به آن یادگیری سنجش اعتبار نیز گفته می شود.هدف در این روش یادگیری ، اندازه‌گیری بازده تجارت با استفاده از داده‌ها است. به عنوان مثال ، هنگامی که شخص باید از یک نقطه A به نقطه B سفر کند ، راه های زیادی وجود خواهد داشت که شامل مسافرت با هوا ، آب ، جاده یا پیاده روی است و در بررسی این داده ها با اندازه گیری میزان بازده ها ، ارزش چشمگیری وجود دارد. برای هر یک از این گزینه ها جنبه مهم دیگر نشانگر تأخیر در پاداش ها است. این امر چگونه می تواند بر یادگیری تأثیر بگذارد؟ به عنوان مثال ، در بازی هایی مانند شطرنج ، هر گونه تاخیر در شناسایی پاداش ممکن است نتیجه را تغییر دهد.

یادگیری عمیق

یادگیری عمیق بخشی از یادگیری ماشینی است که بر متحد کردن یادگیری ماشینی با هوش مصنوعی تمرکز دارد. از نظر ارتباط با شبکه های عصبی مصنوعی ، این بخش بیشتر به شبکه های عصبی مصنوعی کار می کند.در مقادیر زیادی از داده های مشترک برای به دست آوردن بینش عملی. این کار با ساختن شبکه های عصبی پیچیده تر برای حل مشکلات طبقه بندی شده تحت یادگیری نیمه نظارت انجام می شود و در مجموعه داده هایی کار می کند که داده های دارای برچسب کمی دارند. برخی از تکنیک های یادگیری عمیق به شرح زیر ذکر شده است:

• شبکه های Convolutional

• دستگاه بولتزمن محدود (RBM)

• شبکه های اعتقاد عمیق (DBN)

• Autencoders انباشته شده

اندازه گیری عملکرد

از اقدامات عملکردی برای ارزیابی الگوریتم های یادگیری و شکل دادن جنبه مهم یادگیری ماشین استفاده می شود. در برخی موارد ، از این اقدامات بعنوان اکتشافی برای ساختن مدلهای یادگیری نیز استفاده می شود.حال بیایید مفهوم نظریه احتمالاً تقریبا صحیح (PAC) را بررسی کنیم. در حالی که ما صحت فرضیه را توصیف می کنیم ، معمولاً در مورد دو نوع عدم قطعیت طبق تئوری PAC صحبت می کنیم:

• تقریبی: این میزان میزان پذیرش خطا برای یک فرضیه را اندازه گیری می کند

• احتمال: این معیار درصد اطمینان از صحت فرضیه است

نمودار زیر چگونگی رشد تعداد نمونه ها با خطا ، احتمال و فرضیه را نشان می دهد:

آیا راه حل خوب است؟اقدامات خطا برای یک طبقه بندی و پیش بینی مسئله متفاوت است. در این بخش ، برخی از این اقدامات خطایی را دنبال خواهیم کرد که به دنبال آن می توان به چگونگی رسیدگی به آنها پرداخت.

در یک مشکل طبقه بندی ، شما می توانید دو نوع خطای مختلف داشته باشید که با استفاده از “ماتریس سردرگمی” می توان ظرافت آنها را نشان داد. بیایید در مشکل بازاریابی هدف خود بگوییم ، ما روی ۱۰،۰۰۰ پرونده مشتری کار می کنیم تا پیش بینی کنیم که مشتریان به احتمال زیاد به تلاش بازاریابی ما پاسخ می دهند.پس از تحلیل کمپین ، می توانید جدول زیر را بسازید ، جایی که ستون ها پیش بینی های شما هستند و ردیف ها مشاهدات واقعی هستند:

اندازه ۱: دقت ، درصد پیش بینی های صحیح است.

مثال: “دقت” (از ۹،۰۰۰ + ۵۰۰) از ۱۰،۰۰۰ = ۹۵٪

• اندازه گیری ۲: به یاد بیاورید درصد موارد مثبت است که شما قادر به گرفتن آن هستید. اگر مثبت کاذب کم باشد ، فراخوان زیاد خواهد بود.

مثال: “فراخوان” ۵۰۰ از ۶۰۰ = ۳۳. ۸۳٪ بود

• اندازه گیری ۳: دقت درصد پیش بینی های مثبت صحیح است. اگر منفی کاذب کم باشد ، دقت بالا است.

مثال: “دقت” ۵۰۰ از ۹۰۰ = ۵۵.۵۵٪ بود.

در پیش بینی ، شما متغیر مداوم را پیش بینی می کنید. بنابراین ، اقدامات خطا در اینجا کاملاً متفاوت است. طبق معمول ، معیارهای خطا با مقایسه پیش بینی های مدل ها با مقادیر واقعی متغیرهای هدف و محاسبه میانگین خطا بدست می آیند. در اینجا چند معیار وجود دارد.