<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>AI on Quach</title>
    <link>https://quachthetruong.github.io/tags/ai/</link>
    <description>Recent content in AI on Quach</description>
    <image>
      <title>Quach</title>
      <url>https://quachthetruong.github.io/papermod-cover.png</url>
      <link>https://quachthetruong.github.io/papermod-cover.png</link>
    </image>
    <generator>Hugo -- 0.146.5</generator>
    <language>en</language>
    <lastBuildDate>Sat, 25 Apr 2026 10:00:00 +0700</lastBuildDate>
    <atom:link href="https://quachthetruong.github.io/tags/ai/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>Thứ AI không có</title>
      <link>https://quachthetruong.github.io/posts/life/thu-ai-khong-co/</link>
      <pubDate>Sat, 25 Apr 2026 10:00:00 +0700</pubDate>
      <guid>https://quachthetruong.github.io/posts/life/thu-ai-khong-co/</guid>
      <description>&lt;p&gt;Đừng tin vào sự thù ghét trong bạn.&lt;/p&gt;
&lt;p&gt;Luận điểm &amp;ldquo;AI sẽ cướp việc của chúng ta&amp;rdquo; thuần túy dựa trên nỗi sợ, sự bất an và thù ghét sẽ đẩy ta ra xa khỏi vấn đề thực sự, thiếu sự chuẩn bị đúng đắn cho tương lai.&lt;/p&gt;
&lt;p&gt;&amp;ldquo;Bạn hơn AI điều gì?&amp;rdquo; lặp lại liên tục không phải lời khiêu khích. Đó là một sự trăn trở sâu sắc được cụ thể hóa thành bài test năng lực, phản ánh đúng nhu cầu của thị trường. Ai vượt qua được phép thử này, người đó sẽ là lá cờ đầu dẫn dắt cuộc cách mạng số.&lt;/p&gt;</description>
    </item>
    <item>
      <title>How Computers Do Differentiation?</title>
      <link>https://quachthetruong.github.io/posts/technical/auto-differentiation/</link>
      <pubDate>Thu, 24 Apr 2025 17:29:51 +0700</pubDate>
      <guid>https://quachthetruong.github.io/posts/technical/auto-differentiation/</guid>
      <description>&lt;p&gt;Differentiation is a key concept in machine learning, especially when optimizing functions like loss functions in neural networks. It helps us find the minimum of these functions, which is crucial for tasks like training a model. But have you ever wondered how popular libraries like &lt;strong&gt;TensorFlow&lt;/strong&gt; and &lt;strong&gt;PyTorch&lt;/strong&gt; perform differentiation? Let’s break it down!&lt;/p&gt;
&lt;h2 id=&#34;1-manual-differentiation-the-old-school-method&#34;&gt;1. Manual Differentiation: The Old-School Method&lt;/h2&gt;
&lt;p&gt;In school, we learn how to manually compute derivatives using calculus. You apply a set of rules to functions to find how they change with respect to their inputs. For example, given a simple function like:&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
