เครื่องมือวิทยาศาสตร์ข้อมูลที่ดีที่สุดสำหรับนักวิทยาศาสตร์ข้อมูล

เผยแพร่แล้ว: 2020-02-28

จำเป็นอย่างยิ่งที่จะต้องทำให้สถิติเป็นหนึ่งเดียว วิเคราะห์ข้อมูล เรียนรู้ผ่านเครื่องและวิธีการที่เกี่ยวข้องเพื่อจุดประสงค์ในการทำความเข้าใจและวิเคราะห์ปรากฏการณ์จริงด้วยข้อมูลที่นำไปสู่การกำเนิดของวิทยาศาสตร์ข้อมูล

Data Science เป็นสาขาบูรณาการที่ใช้วิธีการทางวิทยาศาสตร์ กระบวนการ อัลกอริธึม และระบบ ในการดึงความรู้และข้อมูลเชิงลึกจากข้อมูลทั้งที่มีโครงสร้างและไม่มีโครงสร้าง โดยใช้เทคนิคและทฤษฎีที่มาจากหลายสาขาในบริบทของคณิตศาสตร์ สถิติ วิทยาการคอมพิวเตอร์ และสารสนเทศศาสตร์

ในปี 2015 American Statistical Association ระบุทั้งระบบแบบกระจายและแบบคู่ขนาน สถิติ และการเรียนรู้ด้วยเครื่องและการจัดการฐานข้อมูลเป็นชุมชนพื้นฐานและมืออาชีพสามแห่งของวิทยาศาสตร์ข้อมูล วิทยาศาสตร์ข้อมูลไม่สามารถทำงานได้เลยหากไม่มีเครื่องมือ

ดังนั้นเครื่องมือวิทยาศาสตร์ข้อมูลที่เรามีในปัจจุบันคืออะไร?

ด้านล่างนี้คือรายการเครื่องมือที่ดีที่สุดสำหรับวิทยาศาสตร์ข้อมูล

  • BigML

    นี่เป็นหนึ่งในเครื่องมือ Data Science ที่ฉันโปรดปรานโดยส่วนตัวแล้วใช้เพื่อทำให้แมชชีนเลิร์นนิงเป็นเรื่องง่ายสำหรับฉัน เครื่องมือทั่วโลกนี้ได้รับการออกแบบให้ทำงานในระบบคลาวด์หรือในองค์กรสำหรับการดำเนินงานของการเรียนรู้ด้วยเครื่องในองค์กร ทำให้ง่ายต่อการแก้ไขและจัดประเภทและวิเคราะห์คลัสเตอร์โดยอัตโนมัติ

  • โบเก้

    เครื่องมือนี้มีจุดมุ่งหมายเพื่อสร้างเว็บเบราว์เซอร์ที่ทันสมัยสำหรับการนำเสนอ นอกจากนี้ยังช่วยให้ผู้ใช้สร้างแดชบอร์ด พล็อตแบบโต้ตอบ และแอปพลิเคชันข้อมูลได้อย่างง่ายดาย ส่วนที่ดีที่สุดคือมันฟรีทั้งหมด

  • Clojure

    Clojure ได้รับการออกแบบมาเพื่อผสานโครงสร้างพื้นฐานที่มีประสิทธิภาพเข้ากับการพัฒนาเชิงโต้ตอบของภาษาสคริปต์สำหรับการเขียนโปรแกรมแบบมัลติเธรด เครื่องมือนี้มีเอกลักษณ์เฉพาะตัวเพราะเป็นภาษาคอมไพล์ที่ยังคงไดนามิกกับทุกฟีเจอร์ที่รองรับขณะรันไทม์

  • Excel

    แพ็คเกจ Microsoft office นี้เป็นเครื่องมือที่คุ้นเคยมาก ซึ่งนักวิทยาศาสตร์พึ่งพาการจัดเรียง กรอง และทำงานกับข้อมูลอย่างรวดเร็ว มันอยู่ในอุปกรณ์คอมพิวเตอร์เกือบทุกเครื่องที่คุณเจอ ดังนั้นนักวิทยาศาสตร์ด้านข้อมูลจากทั่วทุกมุมโลกจึงสามารถทำงานได้อย่างง่ายดาย

  • พยากรณ์นี้

    ForecastThis เป็นเครื่องมือขนาดใหญ่ในความเข้าใจของนักวิทยาศาสตร์ข้อมูลที่ทำให้การเลือกแบบจำลองการทำนายเป็นแบบอัตโนมัติ บริษัทที่อยู่เบื้องหลังเครื่องมือนี้มุ่งมั่นที่จะสร้างการเรียนรู้เชิงลึกที่เกี่ยวข้องกับการเงินและเศรษฐศาสตร์อย่างต่อเนื่อง โดยช่วยให้นักวิเคราะห์เชิงปริมาณ ผู้จัดการการลงทุน และนักวิทยาศาสตร์ด้านข้อมูลสามารถใช้ข้อมูลของตนเองเพื่อสร้างการคาดการณ์ที่แข็งแกร่งและเพิ่มประสิทธิภาพของวัตถุประสงค์ในอนาคตที่ซับซ้อนได้

  • Java

    จาวา โอ้ จาวา! เก่า แต่มีคุณค่า. เครื่องมือนี้เป็นภาษาที่มีฐานผู้ใช้ที่กว้างมาก ช่วยให้นักวิทยาศาสตร์ข้อมูลสร้างผลิตภัณฑ์และกรอบการทำงานที่เกี่ยวข้องกับระบบแบบกระจาย การเรียนรู้ของเครื่อง และการวิเคราะห์ข้อมูล

    Java นั้นสะดวกมากสำหรับผู้ใช้ สิ่งนี้ทำให้เปรียบเทียบกับเครื่องมือวิทยาศาสตร์ข้อมูลที่ยอดเยี่ยมอื่น ๆ เช่น R และ Python

  • Jupyter

    Jupyter ได้รับการขนานนามจากดาวพฤหัสบดีว่า Jupyter ได้รับการออกแบบมาให้ใช้งานได้ทั่วโลก ได้จัดทำข้อกำหนดสำหรับสภาพแวดล้อมการประมวลผลแบบโต้ตอบหลายภาษา

    มีสมุดบันทึกซึ่งเป็นเว็บแอปพลิเคชันโอเพนซอร์ซที่ช่วยให้นักวิทยาศาสตร์ข้อมูลสามารถสร้างและแบ่งปันเอกสารที่มีรหัสสด การสร้างภาพ สมการ และการทดสอบเพื่ออธิบาย

  • กาวลอจิก

    Logical Glue เป็นเครื่องมือที่ได้รับรางวัลที่ช่วยให้ผู้ใช้สามารถเรียนรู้ภาษาเครื่องบนแพลตฟอร์มปัญญาประดิษฐ์ ไม่สามารถได้รับรางวัลได้หากไม่ใช่เพราะประโยชน์หลักในการเพิ่มประสิทธิภาพและผลกำไรสำหรับองค์กรผ่านกระบวนการในการทำให้ข้อมูลเชิงลึกของคุณเป็นจริงสำหรับผู้ชมเป้าหมายของคุณ

  • MySQL

    MySQL เป็นฐานข้อมูลโอเพ่นซอร์สที่ได้รับความนิยมอย่างมาก สิ่งที่บางคนไม่รู้ก็คือเป็นเครื่องมือที่ยอดเยี่ยมสำหรับนักวิทยาศาสตร์ด้านข้อมูลในการเข้าถึงข้อมูลจากฐานข้อมูลของพวกเขา มีการใช้ควบคู่ไปกับ Java เพื่อประสิทธิภาพที่มากขึ้น

    มันสามารถจัดเก็บและจัดโครงสร้างข้อมูลของคุณในลักษณะที่เป็นระเบียบมาก ทำให้คุณไม่ต้องยุ่งยากเลย รองรับความต้องการจัดเก็บข้อมูลสำหรับระบบการผลิต นอกจากนี้ยังเปิดใช้งานคุณสมบัติการสืบค้นข้อมูลหลังจากออกแบบฐานข้อมูลแล้ว

  • วิทยาศาสตร์การบรรยาย

    วิทยาศาสตร์การบรรยายเป็นเครื่องมือที่ยอดเยี่ยมสำหรับนักวิทยาศาสตร์ด้านข้อมูล ซึ่งช่วยให้องค์กรสร้างผลกระทบจากข้อมูลของตนให้เกิดประโยชน์สูงสุดด้วยการเล่าเรื่องที่ชาญฉลาดและเป็นไปโดยอัตโนมัติซึ่งสร้างขึ้นโดยการสร้างภาษาสำหรับการเล่าเรื่องขั้นสูง (NLG)

    เครื่องมือนี้สามารถเปลี่ยนข้อมูลของคุณให้เป็นสินทรัพย์ที่มีประสิทธิภาพและนำไปใช้ได้จริงเพื่อการตัดสินใจที่มีประสิทธิภาพยิ่งขึ้น ซึ่งจะทำให้พนักงานในองค์กรของคุณเข้าใจและดำเนินการกับข้อมูล

  • นำพาย

    NumPy เป็นเครื่องมือที่เหมาะสำหรับการใช้งานทางวิทยาศาสตร์ เนื่องจากมีวัตถุอาร์เรย์ N-dimensional อันทรงพลังพร้อมฟังก์ชันการแพร่ภาพที่ซับซ้อน และฟรีทั้งหมด เป็นแพ็คเกจพื้นฐานที่มีศักยภาพสูงสุดเมื่อใช้ร่วมกับ Python เท่านั้น นอกจากนี้ยังเป็นที่เก็บข้อมูลทั่วไปหลายมิติ

  • OpenRefine

    เมื่อ Google Refine ตอนนี้ Open Refine เป็นโครงการโอเพ่นซอร์สที่ได้รับการสนับสนุนและให้ทุนจากใครก็ตามที่ต้องการ ตามชื่อของมัน มันเป็นเครื่องมือที่ทรงพลังเป็นพิเศษที่นักวิทยาศาสตร์ข้อมูลใช้เพื่อล้าง แปลง และขยายข้อมูลด้วยบริการเว็บก่อนที่จะลิงก์กับฐานข้อมูล

    นอกจากนี้ยังได้รับการออกแบบให้มีความสามารถในการกระทบยอดและจับคู่ข้อมูล เชื่อมโยงและขยายชุดข้อมูลด้วยบริการเว็บต่างๆ และอัปโหลดข้อมูลที่ทำความสะอาดแล้วไปยังฐานข้อมูลกลาง

  • แพนด้า

    Pandas เป็นเครื่องมือวิทยาศาสตร์ข้อมูลที่ยอดเยี่ยม มาพร้อมกับไลบรารีโอเพ่นซอร์ส ซึ่งมีจุดมุ่งหมายเพื่อนำเสนอโครงสร้างข้อมูลที่มีประสิทธิภาพสูง ใช้งานง่าย และเครื่องมือวิเคราะห์ข้อมูลสำหรับภาษาการเขียนโปรแกรมหลาม

    มีความยืดหยุ่น รวดเร็ว และมีโครงสร้างข้อมูลที่แสดงออกซึ่งทำให้การทำงานกับข้อมูลเชิงสัมพันธ์และข้อมูลที่ติดป้ายกำกับเป็นเรื่องง่ายและใช้งาน ง่าย มีเครื่องมือวิเคราะห์และจัดการข้อมูลที่มีอยู่ในหลายภาษา อะไรอีก? ว่าง.

  • RapidMiner

    จากสถิติพบว่านักวิทยาศาสตร์ด้านข้อมูลมีประสิทธิภาพการทำงานมากขึ้นเมื่อใช้ RapidMiner เนื่องจากเป็นแพลตฟอร์มแบบครบวงจรสำหรับการเรียนรู้ของเครื่อง การเตรียมข้อมูล และการนำโมเดลไปใช้ สามารถเรียกใช้เวิร์กโฟลว์วิทยาศาสตร์ข้อมูลได้โดยตรงภายใน Hadoop ด้วย RapidMiner Radoop

  • Redis

    เครื่องมือวิทยาศาสตร์ข้อมูลนี้เป็นเซิร์ฟเวอร์โครงสร้างข้อมูลที่นักวิทยาศาสตร์ข้อมูลใช้เป็นแคช ฐานข้อมูล และนายหน้าข้อความ เป็นที่เก็บโครงสร้างข้อมูลแบบโอเพนซอร์สในหน่วยความจำที่รองรับแฮช สตริง และรายการอื่นๆ

( ดาวน์โหลดเอกสารไวท์เปเปอร์: Data Science at Scale)

  • เรียงซ้อน

    เครื่องมือวิทยาศาสตร์ข้อมูลนี้เป็นแพลตฟอร์มการพัฒนาแอปพลิเคชันสำหรับนักวิทยาศาสตร์ข้อมูลที่สร้างแอปพลิเคชัน Big Data บน Apache Hadoop ช่วยให้ผู้ใช้สามารถแก้ปัญหาข้อมูลที่เรียบง่ายและซับซ้อนได้ เนื่องจากมีกลไกคำนวณเฉพาะ เฟรมเวิร์กการรวมระบบ การประมวลผลข้อมูล และความสามารถในการจัดกำหนดการ มันทำงานและสามารถพอร์ตระหว่าง MapReduce, Apache Tea และ Apache Flink

  • DataRobot

    เครื่องมือนี้เป็นแพลตฟอร์มแมชชีนเลิร์นนิงอัตโนมัติขั้นสูง DataRobot ทำให้นักวิทยาศาสตร์ข้อมูลสร้างแบบจำลองการทำนายที่ดีขึ้นได้เร็วยิ่งขึ้น ติดตามระบบนิเวศของอัลกอริธึมแมชชีนเลิร์นนิงได้อย่างง่ายดายเมื่อคุณใช้ DataRobot

    DataRobot มีการขยายตัวอย่างต่อเนื่องและมีชุดอัลกอริธึมที่ดีที่สุดและหลากหลายจากแหล่งข้อมูลชั้นนำมากมาย คุณสามารถทดสอบ ฝึกฝน และเปรียบเทียบโมเดลต่างๆ ได้หลายร้อยแบบด้วยโค้ดบรรทัดเดียวหรือคลิกเพียงครั้งเดียว

    นอกจากนี้ยังระบุการประมวลผลล่วงหน้าขั้นสูงและวิศวกรรมคุณลักษณะสำหรับเทคนิคการสร้างแบบจำลองแต่ละแบบโดยอัตโนมัติ มันยังใช้เซิร์ฟเวอร์นับแสนและแม้กระทั่งหลายคอร์ภายในแต่ละเซิร์ฟเวอร์เพื่อสำรวจข้อมูล การสร้างแบบจำลอง และการปรับแต่งไฮเปอร์พารามิเตอร์แบบคู่ขนาน

  • อาปาเช่ สตอร์ม

    เป็นเครื่องมือสำหรับนักวิทยาศาสตร์ข้อมูลที่เกี่ยวข้องกับการจัดการการคำนวณแบบเรียลไทม์แบบกระจายและทนต่อข้อผิดพลาด มันจัดการกับการประมวลผลสตรีม การคำนวณอย่างต่อเนื่อง RPC แบบกระจาย และอื่นๆ

    เป็นเครื่องมือโอเพนซอร์ซฟรีที่สามารถประมวลผลสตรีมข้อมูลที่ไม่จำกัดสำหรับการประมวลผลแบบเรียลไทม์ได้อย่างน่าเชื่อถือ สามารถใช้กับภาษาการเขียนโปรแกรมใดๆ และแม้แต่กรณีต่างๆ เช่น การวิเคราะห์แบบเรียลไทม์ การเรียนรู้ของเครื่องออนไลน์ การคำนวณอย่างต่อเนื่อง RPC แบบกระจาย ETL และอื่นๆ

    มีความสามารถในการประมวลผลมากกว่าหนึ่งล้าน tuples ที่ประมวลผลต่อวินาทีต่อโหมดเมื่อรวมเข้ากับเทคโนโลยีการจัดคิวและฐานข้อมูลที่มีอยู่ของคุณ

  • ไอไฟตัน

    เครื่องมือ Python เชิงโต้ตอบเป็นโปรเจ็กต์ที่กำลังเติบโตด้วยการขยายส่วนประกอบที่ไม่เชื่อเรื่องภาษา ควบคู่ไปกับสถาปัตยกรรมที่สมบูรณ์สำหรับการประมวลผลแบบโต้ตอบ เป็นเครื่องมือโอเพนซอร์ซสำหรับนักวิทยาศาสตร์ข้อมูลและรองรับ Python 2.7 และ 3.3 หรือใหม่กว่า

    เป็นเคอร์เนลสำหรับ Jupyter และรองรับการแสดงข้อมูลเชิงโต้ตอบและการใช้ชุดเครื่องมือ GUI มันสามารถโหลดล่ามที่ยืดหยุ่นและฝังได้ในโครงการของคุณเอง และมีเครื่องมือประมวลผลคู่ขนานประสิทธิภาพสูงที่ใช้งานง่าย

  • แพลตฟอร์มการวิเคราะห์ KNIME

    KNIME เป็นเครื่องมือแพลตฟอร์มแบบเปิดสำหรับการนำทางข้อมูลที่ซับซ้อนอย่างอิสระ แพลตฟอร์ม KNIME Analytics เป็นโซลูชันแบบเปิดสำหรับนวัตกรรมที่ขับเคลื่อนด้วยข้อมูล เพื่อช่วยให้นักวิทยาศาสตร์ด้านข้อมูลค้นพบศักยภาพที่ซ่อนอยู่ของข้อมูล ขุดหาข้อมูลเชิงลึก และทำนายอนาคต

    สามารถปรับใช้ได้อย่างรวดเร็วและปรับขนาดได้มากกว่า 1,000 โมดูลอย่างง่ายดาย มีตัวอย่างพร้อมดำเนินการหลายร้อยรายการพร้อมเครื่องมือแบบบูรณาการที่ครอบคลุม นอกจากนี้ยังมีอัลกอริธึมขั้นสูงให้เลือกมากมาย

  • RStudio

    นี่เป็นเครื่องมือสำหรับนักวิทยาศาสตร์ด้านข้อมูลที่เป็นโอเพ่นซอร์สและพร้อมสำหรับองค์กร ซอฟต์แวร์ระดับมืออาชีพสำหรับชุมชน R นี้ทำให้ R ใช้งานง่ายขึ้น เนื่องจากมีเครื่องมือแก้ไขโค้ด การดีบัก และการแสดงภาพ สภาพแวดล้อมการพัฒนาแบบรวม (IDE) สำหรับ R รวมถึงคอนโซล ตัวแก้ไขการเน้นไวยากรณ์ที่สนับสนุนการเรียกใช้โค้ดโดยตรงและเครื่องมือสำหรับ การวางแผนและการจัดการพื้นที่ทำงาน

    มีให้ในรุ่นโอเพ่นซอร์สและเชิงพาณิชย์ และทำงานบนเดสก์ท็อปหรือในเบราว์เซอร์ที่เชื่อมต่อกับเซิร์ฟเวอร์ RStudio หรือ Studio Server Pro

  • Pxyll.com

    Pxyll เป็นเครื่องมือแพลตฟอร์มเปิดอีกตัวหนึ่งและเป็นวิธีที่เร็วที่สุดในการรวม Python และ Excel รหัสที่คุณป้อนจะทำงานในกระบวนการเพื่อให้แน่ใจว่าเวิร์กบุ๊กของคุณมีประสิทธิภาพสูงสุด

  • TIBCO ต้องเปิด

    ขับเคลื่อนธุรกิจดิจิทัลด้วยการตัดสินใจที่ดีขึ้นและการดำเนินการที่ชาญฉลาดและรวดเร็วยิ่งขึ้น โซลูชัน Spotfire เป็นเครื่องมือสำหรับนักวิทยาศาสตร์ข้อมูลที่จัดการกับการค้นพบข้อมูล การโต้แย้งข้อมูล การวิเคราะห์เชิงคาดการณ์ และอื่นๆ

    TIBCO เป็นแพลตฟอร์มการวิเคราะห์ระดับองค์กรที่มีความปลอดภัย อยู่ภายใต้การกำกับดูแล พร้อมการโต้แย้งข้อมูลในตัว และสามารถส่งมอบการวิเคราะห์ที่ขับเคลื่อนด้วย AI ภาพ ภูมิศาสตร์ และสตรีมมิ่ง มาพร้อมการค้นพบข้อมูลด้วยภาพอันชาญฉลาดพร้อมระยะเวลาในการมองเห็นที่สั้นลง และคุณสมบัติการเตรียมข้อมูลช่วยให้คุณกำหนดรูปร่าง เสริมแต่ง และแปลงข้อมูล และสร้างคุณสมบัติและระบุสัญญาณสำหรับแดชบอร์ดและการดำเนินการ

  • TensorFlow

    เป็นไลบรารีการเรียนรู้ของเครื่องโอเพนซอร์สที่ยืดหยุ่น รวดเร็ว และปรับขนาดได้สำหรับการวิจัยและการผลิต นักวิทยาศาสตร์ข้อมูลมักใช้ TensorFlow สำหรับการคำนวณเชิงตัวเลขโดยใช้กราฟการไหลของข้อมูล

    มีสถาปัตยกรรมที่ยืดหยุ่นสำหรับการปรับใช้การคำนวณกับ CPU หรือ GPU ตั้งแต่หนึ่งตัวขึ้นไปในเดสก์ท็อป เซิร์ฟเวอร์ หรืออุปกรณ์มือถือที่มี API เดียวพร้อมกับโหนดในกราฟที่แสดงการดำเนินการทางคณิตศาสตร์

    แม้ว่าขอบกราฟจะแสดงอาร์เรย์ข้อมูลหลายมิติที่สื่อสารระหว่างกัน และเหมาะอย่างยิ่งสำหรับการดำเนินการเรียนรู้ของเครื่องและเครือข่ายประสาทเทียมระดับลึก แต่นำไปใช้กับโดเมนอื่นๆ ที่หลากหลาย

  • เงางาม

    เป็นเฟรมเวิร์กเว็บแอปพลิเคชันสำหรับ R โดย RStudio ที่นักวิทยาศาสตร์ข้อมูลใช้เพื่อเปลี่ยนการวิเคราะห์ให้เป็นเว็บแอปพลิเคชันแบบโต้ตอบ เป็นเครื่องมือที่เหมาะสำหรับนักวิทยาศาสตร์ข้อมูลที่ไม่มีประสบการณ์ในการพัฒนาเว็บ

    สิ่งที่ดีคือไม่จำเป็นต้องมีความรู้เกี่ยวกับ HTML, CSS หรือ JavaScript เนื่องจากเป็นแอปที่เขียนง่ายซึ่งสามารถรวมพลังการคำนวณของ R เข้ากับการโต้ตอบของเว็บสมัยใหม่ได้ คุณสามารถใช้เซิร์ฟเวอร์ของคุณเองหรือบริการโฮสต์ของ RStudio

  • SciPy

    เครื่องมือ Data Science นี้เป็นระบบนิเวศแบบ Python ของซอฟต์แวร์โอเพนซอร์ซสำหรับแอปพลิเคชันทางคณิตศาสตร์ วิทยาศาสตร์ และวิศวกรรม สแต็คของมันประกอบด้วย Python, NumPy, Matplotlib, Python, ไลบรารี SciPy และอีกมากมาย ห้องสมุด SciPy มีรูทีนที่เป็นตัวเลขหลายแบบ

  • Scikit-เรียนรู้

    เครื่องมือนี้เป็นแมชชีนเลิร์นนิงที่ใช้งานง่ายสำหรับ Python นักวิทยาศาสตร์ข้อมูลส่วนใหญ่ชอบ scikit-learn เพราะมีเครื่องมือที่เรียบง่ายและมีประสิทธิภาพสำหรับการทำเหมืองข้อมูลและการวิเคราะห์ข้อมูล ทุกคนยังสามารถเข้าถึงได้และนำกลับมาใช้ใหม่ได้ในบางบริบท มันถูกสร้างขึ้นบน NumPy, SciPy และ Matplotlib

  • สกาลา

    Scala เป็นเครื่องมือสำหรับนักวิทยาศาสตร์ด้านข้อมูลที่ต้องการสร้างลำดับชั้นที่สวยงามเพื่อเพิ่มการใช้โค้ดซ้ำและขยายได้ เครื่องมือนี้ให้อำนาจผู้ใช้ในการใช้พฤติกรรมของลำดับชั้นของคลาสโดยใช้ฟังก์ชันลำดับที่สูงกว่า

    มีภาษาการเขียนโปรแกรมแบบหลายกระบวนทัศน์ที่ทันสมัยซึ่งออกแบบมาเพื่อแสดงรูปแบบการเขียนโปรแกรมทั่วไปอย่างกระชับและสวยงาม รวมคุณสมบัติของภาษาเชิงวัตถุและภาษาที่ใช้งานได้อย่างราบรื่น รองรับฟังก์ชันที่มีลำดับสูงกว่าและอนุญาตให้ซ้อนฟังก์ชันได้

  • อ็อกเทฟ

    นี่คือภาษาการเขียนโปรแกรมทางวิทยาศาสตร์ที่เป็นเครื่องมือที่มีประโยชน์สำหรับนักวิทยาศาสตร์ด้านข้อมูลที่ต้องการแก้ระบบสมการหรือแสดงข้อมูลเป็นภาพด้วยคำสั่งพล็อตระดับสูง ไวยากรณ์ของ Octave เข้ากันได้กับ MATLAB และสามารถเรียกใช้ล่ามในโหมด GUI เป็นคอนโซล หรือเรียกใช้โดยเป็นส่วนหนึ่งของเชลล์สคริปต์

  • เครือข่ายX

    เป็นเครื่องมือแพ็คเกจ Python สำหรับนักวิทยาศาสตร์ข้อมูล คุณสามารถสร้าง จัดการ และศึกษาโครงสร้าง ไดนามิก และฟังก์ชันของเครือข่ายที่ซับซ้อนด้วย NetworkX มีโครงสร้างข้อมูลสำหรับกราฟ ไดกราฟ และมัลติกราฟพร้อมอัลกอริธึมกราฟมาตรฐานมากมาย คุณสามารถสร้างกราฟคลาสสิก กราฟสุ่ม และเครือข่ายสังเคราะห์

  • เครื่องมือภาษาธรรมชาติ

    เป็นแพลตฟอร์มชั้นนำสำหรับการสร้างโปรแกรม Python เนื่องจากเป็นเครื่องมือสำหรับการทำงานกับข้อมูลภาษามนุษย์ เครื่องมือนี้มีประโยชน์สำหรับนักวิทยาศาสตร์ข้อมูลที่ไม่มีประสบการณ์และนักศึกษาวิทยาศาสตร์ข้อมูลที่ทำงานด้านภาษาศาสตร์เชิงคำนวณโดยใช้ Python มีอินเทอร์เฟซที่ใช้งานง่ายสำหรับทรัพยากรองค์กรและคำศัพท์มากกว่า 50 รายการ

  • MLBase

    AMPlab ของ UC Berkeley ได้พัฒนา MLBase เป็นโครงการโอเพนซอร์สที่ทำให้การเรียนรู้ของเครื่องแบบกระจายง่ายขึ้นสำหรับนักวิทยาศาสตร์ด้านข้อมูล ประกอบด้วยสามองค์ประกอบ ได้แก่ MLib, MLI และ ML Optimizer MLBase สามารถใช้และใช้การเรียนรู้ของเครื่องตามขนาดได้ง่ายขึ้น

  • Matplotlib

    เครื่องมือ Data Science นี้เป็นไลบรารีการพล็อต Python 2D ที่สร้างตัวเลขคุณภาพสิ่งพิมพ์ในรูปแบบเอกสารที่หลากหลายและสภาพแวดล้อมแบบโต้ตอบข้ามแพลตฟอร์ม มันถูกใช้โดยนักวิทยาศาสตร์ข้อมูลในสคริปต์ Python, เชลล์ Python และ IPython, Jupyter Notebook, เว็บแอปพลิเคชันเซิร์ฟเวอร์ และชุดเครื่องมือส่วนต่อประสานกราฟิกกับผู้ใช้สี่ชุด

    มีความสามารถในการสร้างพล็อต ฮิสโตแกรม พาวเวอร์สเปกตรัม แผนภูมิแท่ง แผนภูมิข้อผิดพลาด แผนภาพกระจาย และอื่นๆ ด้วยโค้ดไม่กี่บรรทัด

( อ่านเพิ่มเติม: ทำไม Data Science Technology ถึงใหญ่กว่า Big Data)

  • แมทแล็บ

    นี่คือภาษาระดับสูงระดับสูงและสภาพแวดล้อมแบบโต้ตอบสำหรับการคำนวณเชิงตัวเลข การสร้างภาพ และการเขียนโปรแกรม เป็นเครื่องมือที่ทรงพลังสำหรับนักวิทยาศาสตร์ด้านข้อมูล และทำหน้าที่เป็นภาษาของการคำนวณทางเทคนิค และมีประโยชน์สำหรับคณิตศาสตร์ กราฟิก และการเขียนโปรแกรม

    ได้รับการออกแบบมาให้ใช้งานง่าย ช่วยให้คุณวิเคราะห์ข้อมูล พัฒนาอัลกอริธึม และสร้างแบบจำลองได้ มันรวมสภาพแวดล้อมเดสก์ท็อปสำหรับการวิเคราะห์ซ้ำและกระบวนการออกแบบด้วยภาษาโปรแกรมที่สามารถแสดงคณิตศาสตร์เมทริกซ์และอาร์เรย์ได้โดยตรง

  • GraphLab Create

    เครื่องมือนี้ถูกใช้โดยนักวิทยาศาสตร์ข้อมูลและนักพัฒนาเพื่อสร้างผลิตภัณฑ์ข้อมูลที่ทันสมัยผ่านการเรียนรู้ของเครื่อง เครื่องมือการเรียนรู้ของเครื่องนี้ช่วยให้ผู้ใช้สร้างแอปพลิเคชันอัจฉริยะแบบ end-to-end ใน Python เนื่องจากทำให้การพัฒนาโมเดลการเรียนรู้ของเครื่องง่ายขึ้น

    นอกจากนี้ยังรวมเอาวิศวกรรมคุณสมบัติอัตโนมัติ การเลือกรุ่น และการแสดงภาพการเรียนรู้ของเครื่องโดยเฉพาะสำหรับแอปพลิเคชัน คุณสามารถระบุและเชื่อมโยงเรกคอร์ดภายในหรือข้ามแหล่งข้อมูลที่สอดคล้องกับเอนทิตีในโลกแห่งความเป็นจริงเดียวกันได้

  • ggplot2

    ggplot2 ได้รับการพัฒนาโดย Hadley Wickham และ Winston Chang เป็นระบบการวางแผนสำหรับ R ที่ใช้ไวยากรณ์ของกราฟิก ด้วย ggplot2 นักวิทยาศาสตร์ด้านข้อมูลสามารถหลีกเลี่ยงความยุ่งยากมากมายในการวางแผนในขณะที่ยังคงรักษาส่วนที่น่าสนใจของกราฟิกพื้นฐานและแลตทิซไว้ และสร้างกราฟิกหลายชั้นที่ซับซ้อนได้อย่างง่ายดาย

    ช่วยให้คุณสร้างกราฟิกประเภทใหม่ที่เหมาะกับความต้องการของคุณ ซึ่งจะช่วยให้คุณและผู้อื่นเข้าใจข้อมูลของคุณ ซึ่งจะทำให้คุณสามารถสร้างข้อมูลที่สวยงามสำหรับการวิเคราะห์ข้อมูลได้

  • Gawk

    เป็นระบบปฏิบัติการที่ช่วยให้คุณใช้คอมพิวเตอร์ได้โดยไม่ต้องใช้ซอฟต์แวร์ "ที่จะเหยียบย่ำเสรีภาพของคุณ" พวกเขาสร้าง Gawk ซึ่งเป็นยูทิลิตี้ awk ที่ตีความภาษาโปรแกรมวัตถุประสงค์พิเศษ

    ช่วยให้ผู้ใช้สามารถจัดการงานการจัดรูปแบบข้อมูลอย่างง่ายโดยใช้โค้ดเพียงไม่กี่บรรทัด ช่วยให้คุณค้นหาไฟล์สำหรับบรรทัดหรือหน่วยข้อความอื่นๆ ที่มีรูปแบบตั้งแต่หนึ่งรูปแบบขึ้นไป เป็นข้อมูลขับเคลื่อนมากกว่าขั้นตอนทำให้ง่ายต่อการอ่านและเขียนโปรแกรม

  • ตารางฟิวชั่น

    Fusion Tables เป็นบริการจัดการข้อมูลบนคลาวด์ที่เน้นการทำงานร่วมกัน การใช้งานง่าย และการแสดงภาพ เนื่องจากเป็นแอปทดลอง Fusion Tables จึงเป็นเครื่องมือเว็บแอปพลิเคชันการแสดงภาพข้อมูลสำหรับนักวิทยาศาสตร์ข้อมูล ที่ช่วยให้คุณรวบรวม แสดงภาพ และแบ่งปันตารางข้อมูลได้

    คุณสามารถสร้างแผนที่ในไม่กี่นาทีและค้นหาตารางฟิวชันสาธารณะนับพันรายการหรือตารางสาธารณะหลายล้านตารางจากเว็บที่คุณสามารถนำเข้าไปยังตารางฟิวชันได้ สุดท้าย คุณสามารถนำเข้าข้อมูลของคุณเองและแสดงภาพได้ทันทีด้วยเหตุนี้จึงเผยแพร่การแสดงภาพของคุณบนคุณสมบัติเว็บอื่นๆ

  • FeatureLabs

    Feature Labs ออกแบบมาเพื่อพัฒนาและปรับใช้ผลิตภัณฑ์และบริการอัจฉริยะสำหรับข้อมูลของคุณ พวกเขาทำงานกับนักวิทยาศาสตร์ข้อมูลเป็นหลัก โดยจะรวมเข้ากับข้อมูลของคุณเพื่อช่วยให้นักวิทยาศาสตร์ นักพัฒนา นักวิเคราะห์ ผู้จัดการ และผู้บริหารค้นพบข้อมูลเชิงลึกใหม่ๆ และทำความเข้าใจว่าข้อมูลของคุณคาดการณ์อนาคตของธุรกิจของคุณอย่างไร มันมีเซสชันการเริ่มต้นใช้งานที่ปรับให้เหมาะกับข้อมูลของคุณและใช้กรณีและปัญหาเพื่อช่วยให้คุณเริ่มต้นอย่างมีประสิทธิภาพ

  • DataRPM

    เครื่องมือ Data Science นี้เป็น “แพลตฟอร์มการบำรุงรักษาเชิงคาดการณ์ทางปัญญารายแรกและรายเดียวของอุตสาหกรรมสำหรับ IoT ทางอุตสาหกรรม DataRPM เป็นผู้รับรางวัลผู้นำด้านเทคโนโลยีประจำปี 2560 ด้านการบำรุงรักษาเชิงคาดการณ์ทางปัญญาในการผลิตยานยนต์จาก Frost & Sullivan

    โดยใช้เทคโนโลยีเมตาเลิร์นนิงที่รอการจดสิทธิบัตร ซึ่งเป็นองค์ประกอบสำคัญของปัญญาประดิษฐ์ เพื่อทำให้การคาดการณ์ความล้มเหลวของสินทรัพย์เป็นไปโดยอัตโนมัติ และดำเนินการทดลองแมชชีนเลิร์นนิงอัตโนมัติหลายชุดบนชุดข้อมูล

  • D3.js

    D3.js ถูกสร้างขึ้นโดย Mike Bostock นักวิทยาศาสตร์ข้อมูลใช้ไลบรารี JavaScript เพื่อจัดการเอกสารตามข้อมูล เพื่อเพิ่มชีวิตชีวาให้กับข้อมูลด้วย SVG, Canvas และ HTML เน้นที่มาตรฐานเว็บเพื่อให้ได้ความสามารถเต็มรูปแบบของเบราว์เซอร์สมัยใหม่โดยไม่ต้องเชื่อมโยงกับเฟรมเวิร์กที่เป็นกรรมสิทธิ์และรวมองค์ประกอบการแสดงภาพที่มีประสิทธิภาพและวิธีการที่ขับเคลื่อนด้วยข้อมูลเพื่อการจัดการ Document Object Model (DOM) นอกจากนี้ยังสามารถผูกข้อมูลที่กำหนดเองกับ DOM จากนั้นจึงนำการแปลงที่ขับเคลื่อนด้วยข้อมูลไปใช้กับเอกสาร

  • Apache Spark

    ให้ "การประมวลผลคลัสเตอร์ที่รวดเร็วดั่งสายฟ้า" องค์กรขนาดใหญ่จำนวนมากใช้ Spark เพื่อประมวลผลชุดข้อมูลขนาดใหญ่ และเครื่องมือนักวิทยาศาสตร์ข้อมูลนี้สามารถเข้าถึงแหล่งข้อมูลที่หลากหลาย เช่น HDFS, Cassandra, HBase และ S3

    ได้รับการออกแบบด้วยเอ็นจิ้นการเรียกใช้ DAG ขั้นสูงเพื่อรองรับการไหลของข้อมูลแบบวนซ้ำและการคำนวณในหน่วยความจำ มีโอเปอเรเตอร์ระดับสูงมากกว่า 80 ตัวที่ทำให้ง่ายต่อการสร้างแอปแบบขนาน สามารถใช้แบบโต้ตอบจากเชลล์ Scale, Python และ R และ มันเสริมพลังให้กับไลบรารี่ต่างๆ รวมถึง SQL, DataFrames, MLlib, GraphX ​​และ Spark Streaming

  • Apache Pig

    เครื่องมือนี้เป็นแพลตฟอร์มที่ออกแบบมาสำหรับการวิเคราะห์ชุดข้อมูลขนาดใหญ่ ประกอบด้วยภาษาระดับสูงสำหรับแสดงโปรแกรมวิเคราะห์ข้อมูล ควบคู่ไปกับโครงสร้างพื้นฐานสำหรับการประเมินโปรแกรมดังกล่าว

    เนื่องจากโครงสร้างของโปรแกรม Pig สามารถจัดการกับการขนานที่มีนัยสำคัญ จึงสามารถจัดการกับชุดข้อมูลขนาดใหญ่ได้ โครงสร้างพื้นฐานประกอบด้วยคอมไพเลอร์ที่สามารถสร้างลำดับของโปรแกรม Map-Reduce ซึ่งมีการใช้งานแบบขนานขนาดใหญ่อยู่แล้วและเลเยอร์ภาษารวมถึงภาษาข้อความที่เรียกว่า Pig Latin

  • Apache Mesos

    ในฐานะผู้จัดการคลัสเตอร์ Apache Mesos ให้การแยกและการแชร์ทรัพยากรที่มีประสิทธิภาพในแอปพลิเคชันหรือเฟรมเวิร์กแบบกระจาย มันแยก CPU, หน่วยความจำ, ที่เก็บข้อมูล และทรัพยากรอื่นๆ ออกจากเครื่องจริงหรือเครื่องเสมือน เพื่อให้ระบบกระจายที่ยืดหยุ่นและทนต่อข้อผิดพลาด สร้างขึ้นได้อย่างง่ายดายและทำงานได้อย่างมีประสิทธิภาพ

    มันถูกสร้างขึ้นโดยใช้หลักการที่คล้ายกับเคอร์เนลของ Linux แต่ในระดับนามธรรมที่แตกต่างกันและทำงานบนทุกเครื่องและจัดเตรียมแอปพลิเคชันเช่น Hadoop และ Spark ด้วย API สำหรับการจัดการทรัพยากรและการตั้งเวลาอย่างสมบูรณ์ในศูนย์ข้อมูลและสภาพแวดล้อมคลาวด์ มีการอัปเกรดที่ไม่รบกวนเพื่อความพร้อมใช้งานสูง

  • Apache Mahout

    เครื่องมือโอเพนซอร์ซ Apache Mahout มีเป้าหมายเพื่อให้การเรียนรู้ของเครื่องที่ปรับขนาดได้และการทำเหมืองข้อมูล เพื่อให้เฉพาะเจาะจง เป้าหมายของโครงการคือ "สร้างสภาพแวดล้อมสำหรับการสร้างแอปพลิเคชันการเรียนรู้ของเครื่องที่มีประสิทธิภาพที่ปรับขนาดได้อย่างรวดเร็ว" มันมีสภาพแวดล้อมการเขียนโปรแกรมที่เรียบง่ายและขยายได้และเฟรมเวิร์กสำหรับการสร้างอัลกอริธึมที่ปรับขนาดได้รวมถึงอัลกอริธึมที่สร้างไว้ล่วงหน้ามากมายสำหรับ Scala + Apache Spark, H2O และ Apache Flink

  • Apache Kafka

    Apache Kafka สร้างขึ้นเพื่อประมวลผลสตรีมข้อมูลแบบเรียลไทม์อย่างมีประสิทธิภาพ นักวิทยาศาสตร์ด้านข้อมูลใช้เครื่องมือนี้เพื่อสร้างไปป์ไลน์ข้อมูลแบบเรียลไทม์และแอปสตรีมมิง เนื่องจากช่วยให้เผยแพร่และสมัครรับข้อมูลสตรีมของเรคคอร์ด จัดเก็บสตรีมของเรคคอร์ดด้วยวิธีที่ทนทานต่อข้อผิดพลาด และประมวลผลสตรีมของเรคคอร์ดเมื่อเกิดขึ้น มันทำงานเป็นคลัสเตอร์บนเซิร์ฟเวอร์ตั้งแต่หนึ่งเครื่องขึ้นไป และคลัสเตอร์เก็บสตรีมของเร็กคอร์ดในหมวดหมู่ที่เรียกว่าหัวข้อ

  • Apache Hive

    Apache Hive เริ่มต้นจากโครงการย่อยของ Apache Hadoop และปัจจุบันเป็นโครงการระดับบนสุด Apache Hive เป็นซอฟต์แวร์คลังข้อมูลที่ช่วยในการอ่าน เขียน และจัดการชุดข้อมูลขนาดใหญ่ที่อยู่ในพื้นที่จัดเก็บแบบกระจายโดยใช้ SQL มันสามารถฉายโครงสร้างไปยังข้อมูลที่อยู่ในที่จัดเก็บและมีเครื่องมือบรรทัดคำสั่งเพื่อเชื่อมต่อผู้ใช้กับ Hive

  • Apache HBase

    Apache HBase เป็นที่เก็บข้อมูลขนาดใหญ่แบบกระจายที่ปรับขนาดได้ เครื่องมือโอเพนซอร์ซนี้ถูกใช้โดยนักวิทยาศาสตร์ด้านข้อมูลเมื่อพวกเขาต้องการการเข้าถึง Big Data แบบสุ่มและแบบเรียลไทม์ Apache HBase มีความสามารถคล้ายกับ Bigtable ที่ด้านบนของ Hadoop และ HDFS เป็นระบบจัดเก็บข้อมูลแบบกระจายสำหรับข้อมูลที่มีโครงสร้างซึ่งมีความสามารถในการปรับขนาดเชิงเส้นและแบบแยกส่วน มันอ่านและเขียนอย่างเคร่งครัดและสม่ำเสมอ

  • Apache Hadoop

    เครื่องมือ Data Science นี้เป็นซอฟต์แวร์โอเพ่นซอร์สสำหรับการคำนวณที่เชื่อถือได้ กระจายและปรับขนาดได้ กรอบงานที่อนุญาตให้ประมวลผลแบบกระจายของชุดข้อมูลขนาดใหญ่ทั่วทั้งคลัสเตอร์ของคอมพิวเตอร์ ไลบรารีซอฟต์แวร์ใช้โมเดลการเขียนโปรแกรมอย่างง่าย

    เหมาะสำหรับการวิจัยและการผลิต ได้รับการออกแบบมาเพื่อปรับขนาดจากเซิร์ฟเวอร์เดียวเป็นเครื่องหลายพันเครื่อง ไลบรารีสามารถตรวจจับและจัดการความล้มเหลวที่ชั้นแอปพลิเคชัน แทนที่จะพึ่งพาฮาร์ดแวร์เพื่อให้มีความพร้อมใช้งานสูง

  • อาปาเช่ จิราฟ

    Giraph คือระบบประมวลผลกราฟแบบวนซ้ำที่ออกแบบมาสำหรับความสามารถในการปรับขนาดได้สูง มันเริ่มต้นเป็นคู่โอเพนซอร์สของ Pregel แต่เพิ่มคุณสมบัติหลายอย่างนอกเหนือจากรุ่น Pregel พื้นฐาน นักวิทยาศาสตร์ข้อมูลใช้เพื่อ "ปลดปล่อยศักยภาพของชุดข้อมูลที่มีโครงสร้างในขนาดมหึมา"

    มันมีการคำนวณระดับมาสเตอร์, ตัวรวบรวมแบบแบ่งส่วน, อินพุตเชิงขอบ, การคำนวณแบบนอกแกนหลัก, วงจรการพัฒนาที่มั่นคงและชุมชนผู้ใช้ที่กำลังเติบโต

  • Algorithms.io

    เครื่องมือนี้เป็น บริษัท LumenData ที่ให้บริการการเรียนรู้ด้วยเครื่องเป็นบริการสำหรับการสตรีมข้อมูลจากอุปกรณ์ที่เชื่อมต่อ เครื่องมือนี้เปลี่ยนข้อมูลดิบให้เป็นข้อมูลเชิงลึกแบบเรียลไทม์และเหตุการณ์ที่สามารถดำเนินการได้ เพื่อให้บริษัทอยู่ในตำแหน่งที่ดีกว่าในการปรับใช้การเรียนรู้ของเครื่องสำหรับการสตรีมข้อมูล

    ช่วยลดความยุ่งยากในกระบวนการทำให้บริษัทและนักพัฒนาซอฟต์แวร์ที่ทำงานกับอุปกรณ์ที่เชื่อมต่อสามารถเข้าถึงการเรียนรู้ของเครื่องได้ง่ายขึ้น แพลตฟอร์มคลาวด์ยังจัดการกับความท้าทายทั่วไปด้วยโครงสร้างพื้นฐาน การปรับขนาด และการรักษาความปลอดภัยที่เกิดขึ้นเมื่อปรับใช้ข้อมูลเครื่อง

  • Trifacta

    Trifacta จัดเตรียมผลิตภัณฑ์สามรายการสำหรับการโต้แย้งข้อมูลและการเตรียมข้อมูล อาจใช้โดยบุคคล ทีม และองค์กร เนื่องจากจะช่วยในการสำรวจ เปลี่ยนแปลง ทำความสะอาด และรวมไฟล์เดสก์ท็อปเข้าด้วยกัน เป็นแพลตฟอร์มบริการตนเองขั้นสูงสำหรับการเตรียมข้อมูล

  • Alteryx

    นี่เป็นอีกหนึ่งเครื่องมือวิทยาศาสตร์ข้อมูลที่ยอดเยี่ยม เป็นแพลตฟอร์มในการค้นหา เตรียม และวิเคราะห์ข้อมูล นอกจากนี้ยังช่วยให้คุณพบข้อมูลเชิงลึกที่ลึกซึ้งยิ่งขึ้นด้วยการปรับใช้และแชร์การวิเคราะห์ตามขนาด ช่วยให้คุณค้นพบข้อมูลและทำงานร่วมกันทั่วทั้งองค์กร

    นอกจากนี้ยังมีฟังก์ชันในการจัดเตรียมและวิเคราะห์แบบจำลอง Alteryx จะอนุญาตให้คุณจัดการผู้ใช้ เวิร์กโฟลว์ และสินทรัพย์ข้อมูลจากส่วนกลาง และฝังโมเดล R, Python และ Alteryx ลงในกระบวนการของคุณ

  • H2O.ai

    ด้วยนักวิทยาศาสตร์ข้อมูล 130,000 คนและองค์กรประมาณ 14,000 องค์กร ชุมชน H20.ai กำลังเติบโตอย่างรวดเร็ว H20.ai เป็นเครื่องมือโอเพนซอร์ซที่มุ่งทำให้การสร้างแบบจำลองข้อมูลง่ายขึ้น

    มีความสามารถในการนำอัลกอริธึมการเรียนรู้ของเครื่องส่วนใหญ่ไปใช้ รวมถึงโมเดลเชิงเส้นทั่วไป (GLM) อัลกอริธึมการจำแนกประเภท การส่งเสริมการเรียนรู้ของเครื่อง และอื่นๆ ให้การสนับสนุนสำหรับการเรียนรู้เชิงลึกและยังให้การสนับสนุนในการผสานรวมกับ Apache Hadoop เพื่อประมวลผลและวิเคราะห์ข้อมูลจำนวนมหาศาล

  • ฉาก

    เครื่องมือนี้เป็นเครื่องมือสร้างภาพข้อมูลที่นิยมใช้มากที่สุดในตลาด ช่วยให้คุณเข้าถึงการแยกย่อยข้อมูลดิบที่ไม่ได้จัดรูปแบบให้อยู่ในรูปแบบที่ประมวลผลได้และเข้าใจได้ การแสดงภาพที่สร้างขึ้นโดยใช้ Tableau สามารถช่วยให้คุณเข้าใจการขึ้นต่อกันระหว่างตัวแปรทำนายได้อย่างง่ายดาย

    เครื่องมือเหล่านี้ใช้งานได้จริงและมีประสิทธิภาพมาก ทำไมไม่รวมไว้ในงานของคุณและเป็นสักขีพยานในการเปลี่ยนแปลงครั้งใหญ่

แหล่งข้อมูลที่เป็นประโยชน์อื่นๆ:

6 ปัจจัยใหญ่กำหนดอนาคตของวิทยาศาสตร์ข้อมูล

วิทยาศาสตร์ข้อมูลเบื้องหลังการตรวจจับการฉ้อโกงในการตลาดพันธมิตร