با شات ایکس همیشه در فناوری بروز باشید
هشدار! هوش مصنوعی موتور جست‌وجو نیست!
عکس : هوش مصنوعی موتور جست‌وجو نیست

این اشتباه رایجی است که بسیاری از مردم در کار با نسخه‌های مختلف هوش مصنوعی و به طور ویژه، چت بات‌های ساخته شده توسط AI، مثل چت جی‌پی‌تی مرتکب می‌شوند. اشتباهی فراگیر که در ساعات گذشته در آمریکا مناقشه برانگیز شد و توجه بسیاری از کاربران را به این مساله جلب کرد.

ماجرا از آنجایی آغاز شد که بار دیگر ماجرای عفو «هانتر بایدن» در دوران ریاست جمهوری پدرش، «جو بایدن» (رئیس جمهور فعلی آمریکا) در کانون توجه عموم قرار گرفت و برخی کوشیدند تا نمونه‌های مشابهی برای این گونه عفو‌ها بیابند و برای این کار به سراغ هوش مصنوعی رفتند.

به گزارش سرویس اخبار هوش مصنوعی سایت شات ایکس و به نقل از نبض فناوری هانتر که به دلیل ارتباطات تجاری و مالی با برخی کشورها، از جمله اوکراین و چین در دوران ریاست جمهوری اوباما با اتهاماتی مواجه بود، در سال‌های گذشته و در پی تحقیقات قضایی با اتهاماتی مانند فساد مالی، مورد محاکمه قرار گرفت و در نهایت در برخی موارد اتهامی محکوم و در بعضی دیگر تبرئه گردید.

البته این آرای قضایی در حالی برای پسر رئیس جمهور صادر شد که وی توانست با دادستان پرونده به توافق دست پیدا کند؛ روشی مرسوم در ایالات متحده که بر اساس آن، متهم اجازه معامله دارد و می‌تواند اتهاماتی را بپذیرد تا مشمول تخفیف یا حتی عدم رسیدگی به برخی اتهامات دیگر شود!

بدین ترتیب محکوم شدن هانتر بایدن به پرداخت جریمه مالیاتی و همچنین الزام به حضور در جلسات درمان اعتیاد به مواد مخدر به مدت دو سال و تبرئه از اتهاماتی مانند فساد مالی، توافقی خوانده شد که مخالفان بایدن تاکید دارند رئیس جمهور در شکل گیری آن نقش داشته و با سو استفاده سیاسی، رقم خورده است.

مساله چالش برانگیزی که حالا بار دیگر داغ شده است چراکه دولت بایدن به آخرین روز‌های عمر خود رسیده و قرار است دولتی از جناح رقیب سکان دار امور شود و در نتیجه نزاع‌های سیاسی به اوج خود رسیده و طرفین می‌کوشند یکدیگر را به شدت زیر سوال ببرند و انتخاب‌ها و عملکرد رقیب را زیر سوال ببرند.


رفتاری که استفاده نادرست از هوش مصنوعی هم به آن دامن زده است، به این صورت که با داغ شدن دوباره ماجرای عفو پسر رئیس جمهور فعلی از برخی اتهامات، برخی کوشیده‌اند نمونه‌هایی برای این نوع آرای قضایی بیابند و این کار را نه به مراجعه به امثال موتور جست و جوی گوگل یا بینگ، که با هوش مصنوعی انجام داده‌اند.

رویکردی که البته از دید افراد آشنا با نقاط قوت و ضعف هوش مصنوعی ، فرجامش از قبل مشخص بود و می‌توانستند حدس بزنند که پرسیدن چنین سوالاتی از این ابزار‌های نوپدید، می‌تواند موجب گمراهی و دریافت اطلاعات نادرست و حتی ساختگی شود و همین گونه هم شد؛ پاسخ‌های نادرست توسط برخی منتشر گردید و ابعاد تازه‌ای به این ماجرای جنجالی بخشید.

تفاوت هوش مصنوعی و موتور جستجو
عکس : تفاوت هوش مصنوعی و موتور جستجو

دروغ‌های پر سروصدای هوش مصنوعی در ساعات اخیر

«ویلسون رئیس جمهور اسبق آمریکا هم دامادش "هانتر دبوتس" را عفو کرده بود»؛ این یکی از ادعا‌های کذب مطرح شده در روز‌های گذشته است که نتیجه به کارگیری یک چت بات هوش مصنوعی برای تحقیق پیرتامون تاریخچه عفو‌ها در آمریکا در ادوار گذشته ریاست جمهوری در این کشور است.

عفو «نیل بوش»، توسط پدرش، جرج دبلیو بوش در دوران ریاست جمهوری وی و در ارتباط با «پرونده رسوایی سیلورادو»، ادعای کذب دیگری بود که برخی مطرح کردند و عفو «بیلی کارتر»، توسط برادرش جیمی کارتر، در دوران ریاست جمهوری جیمی و در ارتباط با «پرونده ارتباطات مالی مشکوک با لیبی»، یک نمونه دیگر از این داستان‌های دروغین بود.

موارد و ادعا‌هایی که وقتی غیرواقعی بودن آن‌ها مورد تاکید قرار گرفت (مثلا ثابت شد که ویلسون دامادی با نام هانتر دبوتس نداشته و عفو پسر بوش در دوران کلینتون رقم خورده است!)، مطرح کنندگان این ادعا‌ها تاکید کردند که مستندات و اطلاعاتشان را از هوش مصنوعی گرفته اند تا بار دیگر ثابت شود که این فناوری نوظهور به رقم توانایی‌های زیادی که دارد، در استنادات تاریخی قابل اتکا نیست.

چرا هوش مصنوعی اطلاعات دروغین را نشر می‌دهد؟

این نکته‌ای است که پیشتر هم توسط کارشناسان این حوزه مورد تاکید قرار گرفته بود و حالا بار دیگر با مثالی محکم، ثابت شده است؛ اینکه استفاده از هوش مصنوعی به‌عنوان منبع اطلاعات تاریخی یا حقوقی، می‌تواند خطرناک باشد چراکه برخلاف موتور‌های جستجو که به منابع قابل استناد لینک می‌دهند، هوش مصنوعی اطلاعاتی را تولید می‌کند که گاهی فاقد اعتبار یا حتی کاملاً اشتباه است.

نقطه ضعفی که البته ریشه آن مشخص است، از جمله اینکه هوش مصنوعی در منابع مورد استفاده برای تمرین و توسعه، شفاف نیست و برخلاف انسان‌ها، نمی‌تواند منابع مستقیم خود را به‌وضوح مشخص کند. یا این نکته که وقتی نتواند اطلاعات موثق بیابد، با اطلاعاتی که دارد، اطلاعات تازه تولید می‌کند که «معتبرنما» هستند، اما گاه از اساس واقعیت ندارند.

یکی دیگر از دلایل بروز این اشتباهات این است که هوش مصنوعی بر پایه اطلاعات موجود تمرین می‌کند و آموزش می‌بیند و بر این اساس، انبوه اطلاعات غلط و حتی جعلی هم در آموزش آن مورد استفاده قرار گرفته است و در نتیجه، گاهی بدون اینکه بخواهد و بداند، اطلاعات نادرست را در اختیار کاربران قرار می‌دهد!

نقطه ضعفی بسیار بزرگ که باید بدانیم در حال حاضر و تا اطلاع ثانوی در بطن این فناوری نوظهور و رو به گسترش وجود دارد و باید مراقبش باشیم. مراقب ابزاری که برای افزایش بهره‌وری به شدت کاراست، اما اعتماد کورکورانه به آن، می‌تواند عواقب ناخوشی به دنبال داشته باشد و در نتیجه، بایستی در کار با آن، به شدت دقت کرد.

ارسال این خبر برای دوستان در شبکه های مجازی :
تلگرامواتساپایتاتوییترفیس بوکلینکدین