۱۴۰۰/۰۷/۲۱

eBiz's Post

در ادامه پست بالا جناب آقای ذهبی اضافه کرده اند که:
"ایده جالبی بود. میشه عبارت های فاقد معنا در زبان انگلیسی رو حذف کرد تا حجم کتابخانه بهینه بشه. در این زمینه پروژه wordnet، در حال ایجاد دیتابیسی از واژه های ۲۰۰زبان جهان هست که در دیتاساینس برای پردازش زبان های طبیعی(NLP) مورد استفاده قرار میگیره. البته فعلا فقط زبان انگلیسی کامل شده."

جناب آقای توفیقی هم اضافه کردند که:
"شاید این واژه‌ها برخی‌شون یه روز معنی پیدا کردند. مثلا ۲۰ سال پیش اولر بی معنا بود توییتر هم و دیگران"

جناب آقای مرتضوی عزیز در ادامه پست بالا توضیحاتی را درج کرده بودند که فکر کردم خالی از لطف نیست اینجا هم درج کنم:

"الان در چند جبهه داره روی دیتا ست ها کار میشه
۱-کتابهای اسکن شده کتابخانه های بزرگ مثل کتابخانه کنگره آمریکا و ...بیشتر برای متون علمی و ادبی
۲-مطالب داخل وب و شبکه های اجتماعی: بیشتر برای متون محاوره ای، چتها، و ...
۳-گفتمان افراد به شکل صوتی و پردازش صوت و تبدیل آن به متون
۴- فیلمها، کلیپ ها و مستندهای تصویری و باز پردازش صدا و تصویر و تبدیل به متون
۵- سخنرانی ها، وبینارها، کنفرانس ها و همایش ها و تبدیل صوت به متن
و حوزه های دیگر
جالبه که در هر حوزه ای هم متخصصان خاص خودش دارن کار می کنند.
ولی تلفیق این داده ها زمینه برای ایجاد بانک عظیمی از داده های زبان نوشتاری، گفتاری و ترجمه رو ایجاد کرده و خواهد کرد.

چند تا سایت میدم کارهاشون رو ببینید جالبه
mindgap.dev
indatalabs.com
throughtrace.com
alkymi.com
aylien.com
kapiche.com
priimer.ai
lexalytics.com
سایت آخر رو لطفا ببینید و ببینید چه سرویسی میده هم
On-Premise
هم
Cloud-API
هم
web-based
سرویس NLP میده"

خیلی جالب بود نه؟ پردازشهای کامپیوتری آینده عجیبی را ایجاد خواهند کرد. کاش میشد آن روزها را هم میدیدیم که البته باید در همان زمان متولد میشدیم وگرنه با این اطلاعات به آینده سفر کردن چیزی بدتر از اصحاب کهف را پیش خواهد آورد.

#کسب_و_کار

t.me/AlirezaMojahedi
AlirezaMojahedi.com
@DrAlirezaMojahedi
By: Alireza Mojahedi via eBiz

هیچ نظری موجود نیست: