آیا یادگیری ماشین به ضرر فرایند آموزش انسانها است؟
نرمافزارها و یادگیری ماشین همیشه به عنوان یک راه حل موثر، آنگونه که قرار است باشند، نیستند. به عنوان یک قربانی که همهی ما با آن به خوبی آشنا هستیم «ارائهی موضوعات با پاورپوینت» موجب شده که انرژی و طراوت را در بسیاری از جلسات نبینیم. نرمافزارها کارهای زیادی را برای ما انجام میدهند. اشتباهات را کم میکنند، برخی محاسبات را آسانتر و سریعتر انجام میدهند اما زمانی که به طور مثال در ایمیل خود با هزاران ایمیل خوانده نشده مواجهایم و نمیتوانیم ایمیلهای مهم را از ایمیلهای غیرمهم متمایز کنیم، نرمافزارها ضعفهایی پیدا میکنند که نمیتوان انکار کرد. در این مطلب میخواهیم به بررسی رابطه یادگیری ماشین و فرایند آموزش انسانها بپردازیم.
در این مطلب میخوانید:
آیا هوش مصنوعی از اشتباهات مصون است؟
اما چه چیزی باعث شده است که پیشگامان هوش مصنوعی و یادگیری ماشین مطمئن باشند که تکنولوژی آنها از نتایج زیان بار و اشتباهات مصون است؟ زیاد هم نباید مطمئن باشند. قدرت دیجیتال معمولا به سمت مدیریت ناصحیح دولتی و سازمان و سوء استفاده از آن سوق داده میشود. سابقه استفاده از ابزارهای بهرهوری شخصی، نشان دهنده تجربههای ناخوشایند و نتایج نامطلوب و بدرد نخور بسیاری است. برای بسیاری از مدیران هزینه تکنولوژی بیشتر از سود استفاده از آن است.
این دقیقا به این خاطر است که ساختارهای یادگیری ماشین و هوش مصنوعی باید هوشمند باشند که ریسکهای چالشی و منحصر بفرد سازماندهی شده را نشان دهند. این ابزارها بیشتر این را القا میکنند که اعتماد به یافته هایشان کاری اشتباه و یا نابجا بوده است.
مشکل این نیست که این تکنولوژی های نوآورانه انجام کارها را پیش نمیبرند، مشکل این است که کاربران سهوا انتخابهایی میکنند و فرصتهایی را استفاده میکنند که باعث کاهش تعداد همکاران و مشتریان میشوند. ظاهرا نرمافزارهای هوشمندتر میتوانند با عدم کاربری اصولی آنها به نرمافزارهای مخرب و بعضا غیرقابل استفاده تبدیل شوند. هیچکس نمیخواهد ارائههای حوصله سر بری تولید کند که وقت همه را تلف کند، اما بسیاری این کار را میکنند. هیچکس هم نمیخواهد که از الگوریتمهای یادگیری ماشینی استفاده کند که پیشبینیهای غلط تولید کند اما بسیاری این کار را خواهند کرد.
بیشتر بخوانید: اعتماد به نفس چیست و چگونه باید آن را کسب کنیم؟
الگوریتمهای یادگیری ماشین
به عنوان مثال گیدون مان و کتی اونیل در مقالهای که در مجله کسبوکار هاروارد با نام «الگوریتمهای استخدام عادلانه نیستند» چاپ کردهاند، به صورت دقیق بیان میکنند که: «الگوریتمهای ساخت بشر امکان اشتباه دارند و ممکن است که خطا و تبعیض در پروسه استخدام را سهوا تقویت و اعمال کنند. هر مدیر منابع انسانی که از چنین سیستمی استفاده میکند لازم است نسبت به این محدودیتها آگاه باشد و یک برنامه برای مواجهه با چنین مشکلاتی داشته باشد. الگوریتمها (یا حداقل بخشی از آنها)، دیدگاههای ما هستند که به شکل کد در آمدهاند. آنها منافع و تعصبات انسانی را منعکس میکنند که منجر به اشتباه یادگیری ماشین و سوء تفاهم میشود.»
این تعصبات ذاتی که در مجموعه دادهها و الگوریتمها نیز نمایان میشوند، میتواند در هر کجا که نیاز به تصمیمگیریهای مهم بر اساس دادهها است مانند تلاش برای دستهبندی مشتریها، طرح ویژگیهای یک محصول و ارزیابی ریسک پروژه، خود را نمایان کنند. سؤال سختتر این است: «چه کسی می خواهد این همبستگی دیجیتالی استعداد و تکنولوژی را به دست آورد و به طور مداوم به موفقیت برسد؟»
برای پاسخ به این سوال، دو حالت هوش مصنوعی و یادگیری ماشین را در نظر بگیرید که به احتمال زیاد به ابتکارات سازمانی تسلط دارند:
- هوش مصنوعی و یادگیری ماشین فعال به این معنی است که مردم به طور مستقیم نقش هوش مصنوعی یا یادگیری ماشین را برای انجام کارها تعیین میکنند. انسان مسئول است؛ آنها به ماشینها میگویند که چه کاری انجام دهند. اما این انسانها هستند که قوانین را تعیین میکنند.
- هوش مصنوعی و یادگیری ماشین منفعل، به این معنی است که الگوریتمها به طور عمده تعیین پارامترها و فرآیندهای افراد را برای انجام کار تعیین میکنند. نرم افزار مسئول است؛ ماشینها به انسان میگویند که چه کاری باید انجام دهد. ماشینها تعیین کننده قوانین هستند.
آموزش ماشینها توسط انسانها
به طور مشخص، در جایی كه یادگیری ماشین فعال وجود دارد انسانهایی هستند که ماشینها را آموزش میدهند. در یادگیری ماشین منفعل این ماشینها هستند که انسانها را آموزش میدهند تا چه کاری را انجام بدهند. با افزایش دادههای بزرگ و افزایش نرمافزارهای دقیق، این دوگانگی یکی از بزرگترین فرصتهای استراتژیکی و همچنی خطرناک است که رهبران در سراسر جهان با آن مواجه خواهد شد.
بیشتر بخوانید: چرا همه شرکتها باید تفکر و استراتژی مانند شرکتهای تفریحی و سرگرمی داشته باشند؟
درست همانطور که این ابزار کارکنان با دانش و آگاهی و مهارت زیاد را به نویسندگان و تحلیل گران مالی آماتور تبدیل میکند، دموکراتیزه کردن یادگیری ماشین که در حال اجرا شدن است نیز از آنها دعوت میکند تا به یک تحلیل گر آماری ساده تبدیل شوند. اما همانطور که دادهها و الگوریتمهای هوشمندانه در سراسر جهان گسترش مییابد، چقدر پایدار خواهند بود؟
به عنوان مثال overfitting یک اشتباه رایج در یادگیری ماشین است که حتی توسط دانشمندان باتجربهی داده و اطلاعات نیز، به غلط اجرا شده است. در مورد overfitting، هوش مصنوعی به معنای واقعی کلمه، خیلی دقیق و درست است؛ این مدل بجای تمرکز بر دادههای ضروری، بیشتر سر و صدا و نویز بیش از حدی را ایجاد میکند. این با مجموعه دادههای موجود همخوانی خوبی دارد و در هنگام پردازش اطلاعات جدید به طور گسترده ناکارآمد و یا غیرقابل اعتماد میشود.
برای کسبوکارها، نتایج پیش بینی شده میتواند کاملا بیمعنی باشد و منجر به نتایج منفی مانند استخدام بد، طرحهای ضعیف یا پیشبینیهای فروش ناموفق شود. در Overfitting، مانند خطاهای صفحه گسترده، قطعا میتوان شناسایی و اصلاح را انجام داد. اما چه اتفاقی میافتد وقتی که دهها تن از علاقهمندان آماتور و سادهی یادگیری ماشین، سرمایهگذاریهای ناقص یا پروژههایی مبتنی بر آنچه فکر میکنند کارآمد و دقیق است انجام میدهند؟ این یک الگوریتم برای اجرا شدن یک فاجعه است!
خطرات هوش مصنوعی منفعل
هر چه منابع اطلاعاتی که سازمانها دارند بیشتر باشند، نظارت دقیقتر بر فعالیتهای هوش مصنوعی و یادگیری ماشین بیشتری نیاز است. الگوریتمهای دقیق نیاز به مدیریت ریسک دقیقتری نیز دارند.
از سوی دیگر، هوش مصنوعی و یادگیری ماشین منفعل حساسیت طراحی های متفاوت و خطرات مختلفی را در خود دارد. برای تمام اهداف و مقاصد، این نرمافزار به عنوان مدیر و مربی عمل میکند. اهداف و دستورالعملهای خود را تنظیم میکند، حتی دادههایی را نیز پیشنهاد میدهد تا کار را انجام دهد. تحقق بهرهوری شخصی الزام آور است: متون و ایمیلهایی که پاسخهای خود را خودکار بنویسند؛ برنامه های روزانه که زمانی که دیر میکنید خود را خودکار تغییر دهند؛ تجزیه و تحلیلهایی که مهمترین یافتههای خود را برجسته و سخنرانی هایی که خود را بانشاطتر و جذابتر میکنند. سازندگان نرمافزار سازمانی از مایکروسافت تا گوگل و Salesforce و Slack به دنبال این هستند تا نرم افزارهای خود را با الگوریتم هایی که به طور قابل اعتماد از کاربران یاد میگیرند، هوشمندتر سازند. بنابراین، مشکل چیست؟
بیشتر بخوانید: چگونه واتسون آی بی ام را دگرگون کرد؟
البته مشخص ترین ریسک این است که آیا «نرمافزارهای هوشمندتر» واقعا به کاربران خود دستورات درست میدهند؟ اما مدیریت ارشد باید آن را دقیقا تحت نظر و بررسی داشته باشد. خطر وحشتناکتر و خطرناکتر آن است که هوش مصنوعی و یادگیری ماشین منفعل بیش از حد در رعایت انطباق، پایبندی و اطاعت انسانها مقید است. به این ترتیب، کارکنان باید به هوش مصنوعی وابسته باشند تا موفق شوند. این نوع کارشکنی توسط طراحی این هوش مصنوعی، میتواند مقاومت کارکنان، پذیرش بی مبالاتی و خرابکاریهای زیرکانه را موجب شود. به عنوان مثال، یک نماینده خدمات مشتری میتواند به یک مشتری ناراضی بگوید: «من دوست دارم به شما کمک کنم، اما این نرمافزار من را از دادن هر نوع بازپرداختی ممنوع می کند.»
راه حل چالشهای هوش مصنوعی و یادگیری ماشین چیست؟
به عبارت دیگر، ارزش ارتباط با انسان عمدا با وجود تصمیمات مبتنی بر داده، کاسته میشود. انتظار میرود که کارکنان قضاوت خود را نسبت به کارفرمایان الگوریتمی خود متمرکز کنند و سیستم آنها را در صورت عدم رعایت انضباطی، تنبیه خواهد کرد.
بیشتر بخوانید: تنظیم قرارداد با هوش مصنوعی؛ هوش مصنوعی چگونه قراردادها را تغییر میدهد؟
در حالی که هیچ راه حلی برای چالشهای گفته شده وجود ندارد، رویکردهایی وجود دارند که توازن سالم بین خطرات و فرصتها را به وجود میآورند. بدیهی است، سازمان های موفقتر «مدیریت دادهها» را در دستور کار خود قرار دادهاند و بهترین دانشمندان داده را استخدام میکنند. اما به لحاظ فرهنگی و عملیاتی، آنها باید اقداماتی مرتبط با همکاری را برای رفع خطرات به طور عمومی انجام بدهند:
۱. از شفافیت منبع استفاده کنید.
بررسی، تایید و اعتبار سنجی، اصولی اساسی در محیطهای سازمانی هوش مصنوعی هستند. به اشتراک گذاری ایدهها، دادهها و مدلها بین جوامع باید به بهترین شیوه انجام گیرد. شرکتهای بزرگ به طور فزایندهای از منابع استفاده میکنند که مردم و تیمها را تشویق میکند تا مجموعه دادهها و مدلهای خود را برای بررسی ارسال کنند. گاه این مخازن از ابتکارات حاکمیت داده میکاهد. در دیگر موارد، آنها محصولی از گروههای دادهای هستند که تلاش میکنند دید بیشتری از آنچه گروههای مختلف انجام میدهند، به صورت دیجیتال به ما بدهند.
۲. برای یادگیری ماشین نقشه راه ایجاد کنید.
علم اطلاعات، هوش مصنوعی و یادگیری ماشین، زمینه های نوآورانهای هستند که به سرعت در حال تکامل یافتن هستند. پیاده سازی یادگیری ماشین فعال ممکن است تبدیل به فرآیند کسب و کار منفعل در هوش مصنوعی و یادگیری ماشین بشود. همانطور که موسسات وابسته به اطلاعات، یادگیری ماشین و سیستم عاملهای دیجیتال را برای خود حیاتی میدانند، نقشه راه به آنها نشان میدهد که در آن مدیریت، سرمایهگذاریهای هوش مصنوعی و یادگیری ماشین فعال از ارزشمندترین داشتههای سازمان است. به عنوان مثال، سیستمهای هوش مصنوعی و یادگیری ماشین مبتنی بر مشتری ممکن است استعداد و خلاقیتهای متفاوتی را که بر کارایی پردازش اطلاعات تاثیر می گذارند، داشته باشند.
مدیریت چرن (Churn) یک مطالعه موردی عالی را انجام داده است: در یک شرکت بزرگ مخابراتی، یک تیم تحلیلی با استفاده از تکنیکهای یادگیری ماشین برای شناسایی مشتریانی که به احتمال زیاد این سرویس را ترک کرده و به یکی دیگر از ارائه دهندگان خدمات مخابراتی مراجعه میکنند، به مطالعه پرداخته است. تستهای نگهداری موفقیت آمیز، یک پیروزی بزرگ برای شرکت خواهد بود و داشتن الگوریتمهای یادگیری ماشین باعث کاهش نواسانات و تغییر مشتری میشود که موجب خواهند شد تا به طرز چشمگیری کارایی فرآیندهای داخلی بهبود پیدا کند.
بیشتر بخوانید: ۴ روش برای ایجاد یک تیم خلاق
اما چندین تن از تحلیلگران مشتری محورِ دیگر معتقد بودند که به سادگی نگه داشتن یک مشتری کافی نیست؛ آنها تصور میکردند که اگر پیشنهادهایی که به مشتریان داده میشود به طور صحیح طراحی شده بودند، ممکن بود به ایجاد سرویسهای جدید و اضافی و همچنین جذب مشتریهای بیشتر منجر بشود. آنها میخواستند از الگوریتمهای دادهها و الگوریتمهای یادگیری ماشین برای شناسایی مشتریانی که میتوانستند به مجموعه وارد شوند، استفاده کنند؛ نه فقط اینکه آنها را ذخیره کرده باشند. معلوم شد این یک ایده بسیار خوب و مبتنی یر اطلاعات و مبتنی بر مشتری است.
سخن پایانی
به عبارت ساده، رهبران جدی در مورد پیشروی تغییرات هوش مصنوعی و یادگیری ماشین نه تنها در تخصص فنی و ابتکاری، بلکه در تواناییهای سازمانی جدید نیز باید سرمایهگذاری کنند. همانطور که آنها این کار را انجام میدهند، باید مراقب باشند تا اشتباهات بهرهوری از گذشته را تکرار نکنند و از آنها در جهت بهبود استفاده کنند.
منبع: Harvard Business Review
پاسخها