استفاده از هوش مصنوعی برای شناسایی رانندگان مست
روتیتر

اوبر اعلام کرده که می‌خواهد با بهره‌گیری از فناوری هوش مصنوعی، رانندگانی را که الکل مصرف کرده‌اند تشخیص داده و آن‌ها را از انجام خدمت‌رسانی به شهروندان بازدارد.
شرکت اوبر با توسعه یک اپلیکیشن آنلاین برای سفرهای درون شهری به نام اوبر (Uber) در کشورهای بسیاری از جمله کشورهای اروپایی و ایالت متحده آمریکا محبوبیت و کاربرد زیادی پیدا کرد. این استارتاپ موفق در سال ۲۰۰۹ توسط استامبل آپان و تراویس کالانیک در سانفرانسیسکو کالیفرنیا تاسیس شد.
اوبر یک سرویس آنلاین است که به کاربران امکان می دهد که از طریق اپلیکیشن سرویس و خودروی مورد نظر خود را سفارش دهند تا به اماکن مختلف داخل شهرهای مختلف سفر کنند.
چندی پیش سازمان پنتاگون اعلام کرد به یک فناوری با استفاده از هوش مصنوعی و یادگیری ماشینی دست یافته است که می‌تواند وضعیت سلامتی روحی و جسمی و همچنین بیماری های سربازان آمریکایی در زمان خدمت خود را بررسی کرده و درصورت نیاز، آن‌ها را به مراکز مربوطه ارجاع دهد.
حالا به نظر می‌رسد که شرکت اوبر از این تکنولوژی استقبال زیادی کرده است و می‌خواهد از آن به منظور شناسایی و تشخیص به موقع آن دسته از رانندگان اوبر که الکل و مشروبات الکلی مصرف کرده و به اصطلاح مست شده‌اند، استفاده کند تا برای شهروندان داخل و خارج از خودرو مشکل و خطری ایجاد نکنند.
این کار اوبر که برای افزایش امنیت و سلامت شهروندان بسیار مفید و کاربردی خواهد بود، هم اکنون در حال بررسی است. به همین علت، شرکت اوبر اعلام کرده که هنوز نمی‌توان گفت که این فناوری می‌تواند بدین منظور هم استفاده شود یا خیر و ما نمی‌توانیم در حال حاضر به طور قطع بگوییم که این تکنولوژی به درد شرکت ما و رانندگانش می‌خورد.
این اپلیکیشن از فناوری‌های نوین همانند هوش مصنوعی و یادگیری ماشینی بهره می‌برد و احتمالا قادر است وضعیت رانندگی نادرست و خارج از ضوابط رانندگان مست را شناسایی کند.
البته این اپلیکیشن آن دسته از مدافعان حقوق شهروندی و حریم شخصی را نیز بسیار نگران کرده است، به گونه‌ای که آن‌ها به شدت درباره چگونگی جمع آوری اطلاعات کاربران و رانندگان توسط شرکت اوبر ابراز نگرانی کرده‌اند و بر این باورند که این مساله می‌تواند به ابزاری جاسوسی برای اوبر تبدیل شود تا به داده‌های موردنظر خود هر زمان که بخواهد، دسترسی پیدا کند.

 

منبع: ایسنا


در همین زمینه

شبکه‌های اجتماعی