Kaptain Kitty
دسته ها :از دست ندهید
انتشار :۵ فروردین ۱۳۹۴
بازدید :350 بار

صفحات لمسی touch screen

بحث مهم اثر انگشت بر روی صفحات لمسی touch screen

ویژگی های حوزه ی تکرار: برای ضبط مشخصات یک ضربه در حوزه ی تکرار، ما انتقال سریع فوریر (FFT) را برای تمام ۶ مولفه ی بردار های سه محوری سری زمانی شتاب سنج و ژیروسکوپ محاسبه می کنیم. علاوه بر این، ویژگی های طیف قدرتی مقادیر FFT را نیز محاسبه می کنیم. ویژگی های حوزه ی تکرار (فرکانس) برای مشخص کردن خصوصیات الگوهای نوسان و لرزه های گوشی در پاسخ به هر ضربه مفید می باشند.

۳٫۳ یادگیری

برای فاز یادگیری TapPrint ما از روش طبقه بندی گروهی استفاده نمودیم که به طور کلی قدرتمند تر و دقیق تر از طبقه بندی منفرد یا مجزا عمل می کند.

۳٫۴ طبقه بندی گروهی

هنگامی که ویژگی ها را از داده های برچسب دار و مشخص استخراج کردیم، از آنها برای آموزش الگوریتم های مختلف طبقه بندی استفاده می کنیم. ما نام این الگوریتم های طبقه بندی را یاد گیرنده های ابتدایی می نامیم. از آنجایی که تمام task های پیش بینی TapPrints مانند تشخیص جای حروف/آیکون، مشکلات طبقه بندی چند کلاسی هستند، بنابراین ما نیز از تکنیک طبقه بندی چند کلاسی به عنوان یادگیرنده های ابتدایی در طبقه بندی گروهی خود استفاده می کنیم. وقتی که N یادگیرنده ی ابتدایی در مورد داده های برچسب دار آموزش داده شدند، ویژگی های ضربات غیر برچسب دار نیز در زمان تست به بانک classifier ها (طبقه بندی کننده) وارد شده و تکنیک دسته بندی گروهی برای پیش بینی نهایی آن برچسب به کار می رود.

یکی از فاکتورهای کلیدی در دقت به دست آمده از روش طبقه بندی گروهی، میزان رابطه بین یادگیرنده ی ابتدایی مختلف می باشد. هدف این است که یک مجموعه ی متنوع از classifier ها مورد استفاده قرار گیرد به طوری که خطاهای طبقه بندی که توسط یادگیرنده های ابتدایی ایجاد می شوند تا حد امکان نا هم بسته باشند. در واقع یادگیرنده های نا همبسته اطلاعات مستقلی را در مورد عمل دسته بندی در اختیار ما قرار می دهند که به ساخت یک روش موثر برای طبقه بندی گروهی کمک می کند. یک فاکتور مهم دیگر در طبقه بندی گروهی موفق نیز دقت هر یک از classifier ها به تنهایی می باشد. واضح است که برای یک طبقه بندی گروهی قدرتمند، یادگیرنده های ابتدایی قدرتمند نیز ضروری می باشد.

ما classifier گروهی خود را با مجموعه ی زیر از یادگیرنده های ابتدایی قدرتمند و چند کلاسی زیر می سازیم: k-Nearest Neighbor) kNN) (نزدیک ترین همجوار). ما از مجموعه ی classifier های kNN استفاده می کنیم که هر یک از آنها با پارامتر اندازه گیری همجواری k، پارامتری شده اند. می توان گفت که k مقدار صافی پیش بینی شده ی ما در مورد ویژگی ها را با توجه به مرزهای یک کلاس کنترل می کند. همچنین مقدار k به مقدار داده های آموزش داده شده و برچسب داری که در اختیار دارید و همچنین ابعاد فضای ویژگی های بستگی دارد. هر چه فضای ویژگی ها بزرگتر باشد تضمین کننده ی مقادیر بالاتر k یا حجم بالای داده های آموزش داده شده می باشد.

 

صفحات لمسی touch screen

صفحات لمسی touch screen

 

برگشت منطقی چند جمله ای: ما یک خانواده از classifier های برگشت منطقی چند جمله ای را از طریق تغییر در مقدار تنظیمات مورد استفاده قرار می دهیم (تعمیم تکنیک طبقه بندی باینری برگشت منطقی به یک مورد در جایی که تعداد برچسب ها از دو تا بیشتر باشد). مشخص نمودن مقدار تنظیمات در اصل به ما این امکان را می دهد تا بتوانیم ظرفیت مدل را کنترل کرده و بنابراین پارامتری را در اختیار ما قرار می دهد که به ما در کنترل فاکتور های ضروری مدل کمک می کند.

ماشین های بردار پشتیبانی (SVM). ما همچنین یک خانواده از classifier های خطی و غیر خطی SVM را نیز مورد استفاده قرار دادیم. یک مجموعه از classifier های خطی SVM از طریق تغییر در ضریب تنظیمات به دست می آید. همچنین یک مجموعه از classifier های غیر خطی/هسته ای SVM را نیز از طریق تغییر در ضریب تنظیمات و پهنای باند هسته به دست آوردیم. طبقه بندی هسته (kernel) در موقعیت هایی مفید است که تابعی که سعی در انطباق آن داریم دارای مرزهای قدرتمند تصمیم گیری غیر خطی باشد و پهنای باند هسته نیز به ما امکان تنظیم صافی و همواری متغیرهای مجاز در تابع را بدهد.

توده ی تصادفی: بانک classifier های ما همچنین شامل classifier های تصادفی انبوه نیز می باشد که خود یک روش طبقه بندی گروهی به شمار می رود و از درخت های تصمیم گیری تشکیل شده است. توده ی تصادفی دارای تعداد زیادی classifier درختی مختلف می باشد که به صورت تصادفی مجموعه ای ویژگی ها و مثال ها را برای هر درخت اتخاب می کند که از میان آنها برای یادگیری جدا می شوند. در نهایت classifier نهایی از روش رای گیری استفاده می کند.

درخت های تصمیم گیری بسته بندی شده: یک classifier گروهی دیگر به نام درخت های تصمیم گیری بسته بندی شده نیز وجود دارد که از مجموعه ای از درخت های تصمیم تشکیل شده اما بر خلاف توده ی تصادفی، هر درخت در یک مجموعه از ویزگی ها اجرا می شود. تنوع نیز از طریق بسته بندی کردن مثال های به دست می آید بنابراین هر درخت از نمونه ی بوت استرپ داده ی اصلی یاد گرفته می شود. ما از طریق تغییر در تعداد درخت ها در مدل از classifier های درخت های تصمیم گیری بسته بندی شده استفاده می کنیم.

برچسب‌ها, , , , ,

مطالب مرتبط

اشتباه کردن در مسیر فریلنسر شدن بخشی از منحنی یادگیری است. هیچ‌کس یک شبه فریلنسر نمی‌شود و دستۀ جدیدی از مشتریان پول‌ساز را به یکباره نمی‌یابد و باز هیچ‌کس ۱۰۰۰۰ دلار در یک هفته به چنگ نمی‌آورد تا بقیۀ ماه را به خوشگذرانی در ساحل رویایی با شن‌های سفید بگذراند. زمانی که من تازه کارم […]

بیانه لینکدین در روز افتتاح لینکدین لرنینگ: “امروز خوشحالیم تا آغاز فعالیت لینکدین لرنینگ را به عنوان یک پلتفرم یادگیری آنلاین اعلام کنیم  که افراد و سازمان ها را قادر می سازد تا به آمال و اهداف خود دست یابند. هدف ما کمک به افراد برای کشف  و توسعه  مهارت های مورد نیاز آنها ازطریق  یادگیری شخصی […]

نسخه‌ی ۳٫۱۲ تلگرام ساعاتی پیش منتشر شد و در این نسخه نیز همانند ورژن‌های قبلی امکانات جذاب و بسیار کاربردی جدیدی به این برنامه‌ی محبوب اضافه شد. سرنجام بعد از مدتی انتظار نسخه‌ی ۳.۱۲ تلگرام منتشر شد و امکاناتی همچون ساخت تصاویر گیف، ویرایشگر جدید عکس‌ها و امکان اضافه کردن ماسک و استیکر و متن […]

آی‌فون ۷ و ۷ پلاس اپل هفته جاری با چندین امکان جدید ارائه شد. در این مطلب نگاهی می‌اندازیم به مهم‌ترین ویژگی‌های نسل جدید آی‌فون‌ها که در آنها دیگر خبری از جک هدفون نیست؛‌ آغاز عصر فراگیری هدفون‌های بی‌سیم، به حکم اپل. کمپانی اپل به رسم هر ساله سپتامبر امسال هم در مراسم ویژه‌ای طیفی […]

نظراتتان را برایمان بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

مطالب ما تو این شبکه های اجتماعی هم پخش میشه