

هوش مصنوعی یا AI، زمینهای از علوم کامپیوتر است که به توسعه سیستمهای کامپیوتری قدرتمند که توانایی انجام وظایفی انسانی را دارند، میپردازد. این سیستمها در طیف گستردهای از فعالیتهای انسانی، مانند یادگیری، تفکر، تصمیمگیری و پردازش داده تخصص دارند. این تکنولوژی به منظور بهبود کارایی و اتوماسیون در بسیاری از صنایع، از پزشکی تا انرژی و غیره استفاده میشود و تاکنون توانسته است در مسائل پیچیده و تحت شرایط مختلف به مردم کمک کند. در این مطلب جامع از دسته آموزش هوش مصنوعی در مجله مکتوب میخواهیم در رابطه با اینکه هوش مصنوعی چیست، چه کاربردی دارد، مزایا و معایب آن چیست و بسیاری از ابعاد مختلف دیگر این فناوری اطلاعاتی مفید ارائه کنیم. پس با ما همراه باشید.
منظور از هوش مصنوعی چیست؟
«هوش مصنوعی» (Artificial Intelligence) به توانایی سیستمهای کامپیوتری اشاره دارد که میتوانند وظایفی را انجام دهند که در ظاهر نیاز به هوش و تفکر انسانی دارند. این سیستمها با استفاده از الگوریتمها، مدلهای ریاضی و دادههای ورودی، تصمیمگیریها و پردازشهای پیچیده را انجام میدهند.
هوش مصنوعی به دو دسته اصلی تقسیم میشود:
- هوش مصنوعی ضعیف یا باریک (Artificial Narrow Intelligence یا ANI): در این دسته، سیستمهای AI تخصصی در یک حوزه خاص عمل میکنند. مثالهایی از ANI شامل سیستمهای تشخیص تصاویر، مترجمهای آنلاین و موتورهای جستجوی وب میباشند.
- هوش مصنوعی عام (Artificial General Intelligence یا AGI): AGI به هوش مصنوعی اشاره دارد که به مانند انسانها، توانایی حل مسائل متنوع و عمومی را داشته باشد و از یادگیری مستمر برای تطابق با موقعیتهای جدید استفاده کند. تا سالهای اخیر، AGI هنوز به دست نیامده و بیشتر پروژههای AI به ساختن ANI محدود شدهاند.

دف اصلی انواع هوش مصنوعی بهبود کارایی و افزایش کاربردهای مختلف در حوزههایی از جمله پزشکی، روباتیک، معماری سیستمهای متکامل، مدیریت منابع و بسیاری دیگر است.
تاریخچه مختصری از هوش مصنوعی
منشا هوش مصنوعی چیست و تاریخچه هوش مصنوعی به کجا باز میگردد؟ در زیر مختصری از پیشینه هوش مصنوعی بیان شده است.
- دهه ۱۹۵۰: شروع تحقیقات در زمینه هوش مصنوعی با پیشنهاد مدلهای محاسباتی و تئوری ماشینها توسط آلن تورینگ و جان مککارتی.
- دهه ۱۹۶۰: پدیدآوری اصول شناختی و یادگیری ماشینی توسط فرهنگ راسترو و دونالد میش.
- دهه ۱۹۷۰: پیشرفتهای مهم در حوزه منطق فازی و سیستمهای خبره.
- دهه ۱۹۸۰: ظهور روشهای پردازش زبان طبیعی و شبکههای عصبی مصنوعی.
- دهه ۱۹۹۰: پیشرفت در تصویربرداری کامپیوتری و سیستمهای تشخیص الگو.
- دهه ۲۰۰۰ به بعد: افزایش تواناییهای هوش مصنوعی با استفاده از یادگیری عمیق، تولید متن و تصویر و توسعه روباتها و ماشینهای هوشمند.




یک نظر