בעידן של חדשנות דיגיטלית מתמדת, הדרך שבה אנחנו מתחברים ללקוחות עוברת שינוי משמעותי. כלי בינה מלאכותית (AI) ומנועי חיפוש גנרטיביים כמו ChatGPT, Google SGE ו-Bing Copilot הם כבר חלק בלתי נפרד מהחיים של כולנו, והם משנים מהיסוד את האופן שבו תוכן נצרך ונמצא.
בדומה לקובץ robots.txt המאפשר לכם לשלוט על מה שמנועי חיפוש סורקים באתר שלכם, נולד כעת תקן חדש בשם קובץ llms.txt. מטרתו היא לעזור לבעלי אתרים ובעלי עסקים לנהל כיצד מודלי בינה מלאכותית משתמשים בתוכן שלהם.
כאן נכנס לתמונה המושג החדש GEO (Generative Engine Optimization), והכלי המרכזי שמוביל אותו: קובץ llms.txt. במאמר זה נצלול לעומק, נבין מהו קובץ llms.txt, למה הוא כל כך חשוב, ואיך תוכלו ליישם אותו באתר שלכם כדי לתפוס שליטה מלאה על תוכן AI.
בעזרת llms.txt, בעלי אתרים יכולים להנחות את מערכות ה-AI לגבי אופן השימוש המועדף בתוכן האתר, ובכך לשלוט על אופן הציטוט וההצגה שלו.
במאמר הבא אני הולך להסביר מהו קובץ llms.txt ובסוף כתבתי מדריך איך ניתן להפעיל אותו באמצעות תוסף Yoast SEO באתרי וורדפרס או הטמעה באופן ידני בקובץ האתר שלכם.
קובץ llms.txt – מהו?
קובץ llms.txt הוא קובץ טקסט פשוט, בדומה לקובץ robots.txt המוכר, הממוקם בספריית השורש של אתר אינטרנט.
מטרתו העיקרית היא להנחות את מודלי השפה הגדולים (LLMs) וכלי הבינה המלאכותית (כמו ChatGPT, Google SGE ו-Bing Copilot) כיצד לגשת, להשתמש ולצטט את התוכן של האתר.
בזמן ש-robots.txt מתמקד בחסימת גישה ממנועי חיפוש מסורתיים, קובץ llms.txt מאפשר לבעלי אתרים להגדיר העדפות אקטיביות, כגון:
- אילו עמודים או תכנים מומלצים לצריכה על ידי ה-AI.
- כיצד יש להתייחס לתוכן (למשל, לבקש אזכור או ציטוט של המקור).
- אילו אזורים יש לחסום מפני שימוש על ידי ה-AI.
הקובץ מהווה כלי מפתח ב-GEO (Generative Engine Optimization), ומעניק לבעלי אתרים שליטה על אופן שבו התוכן שלהם מוצג ומופץ בעידן הבינה המלאכותית.
למה קובץ llms.txt נוצר פתאום?
קובץ llms.txt נוצר כדי לפתור בעיה חדשה שהתעוררה עם עלייתם של כלי הבינה המלאכותית הגנרטיבית.
הבעיה המרכזית הייתה שבעלי אתרים ואנשי תוכן איבדו במידה רבה את השליטה על האופן שבו התוכן שלהם נצרך, מנותח ומוצג על ידי ה-AI.
כלי בינה מלאכותית אלה סורקים ומשתמשים בתוכן רב מהאינטרנט כדי להפיק תשובות, סיכומים ורעיונות, לעיתים קרובות ללא אזכור ברור למקור.
זה יצר מספר אתגרים:
- אובדן שליטה תדמיתית: תוכן יכול להופיע בהקשר לא רצוי, או להיות מסוכם באופן שאינו תואם את מסר המותג המקורי.
- הגנה על קניין רוחני: בעלי אתרים רצו להגן על התוכן המקורי שלהם ולוודא שאם הוא משמש את ה-AI, המקור יצוטט ויקבל קרדיט.
- בעיות של נראות: במקום שהגולש יגיע ישירות לאתר באמצעות קישור, הוא קיבל תשובה מסוכמת מה-AI, מה שפגע בתנועה האורגנית.
לכן, קובץ llms.txt נוצר כדי לשמש כלי אסטרטגי שמעניק לבעלי אתרים פקודות ישירות לכלי הבינה המלאכותית. הוא נועד להשיב את השליטה לידיים שלהם, ולאפשר להם:
- להנחות את ה-AI באילו אזורים באתר להתמקד.
- לבקש אזכורים וקרדיט על שימוש בתוכן.
- לוודא שהתוכן נצרך בצורה מדויקת ועקבית.
במילים אחרות, קובץ llms.txt הוא הדרך של בעלי אתרים ל”תקשר” עם ה-AI, להציב כללים ולבסס סטנדרטים חדשים בעידן של Generative Engine Optimization (GEO).
דוגמה לקובץ llms.txt
הקובץ המצורף מדגים כיצד ניתן לתת הוראות למערכות ה-AI לגבי גישה לתוכן, בקשה לציטוט, והכוונה לאזורים ספציפיים באתר. זכרו שהמטרה היא לא רק לחסום גישה, אלא בעיקר לכוון את ה-AI אל התוכן שאתם רוצים שימצא ויפיץ, וכך להבטיח שהוא עובד בשבילכם.
# חסימת גישה לכל מודלי ה-AI לתיקיית התוכן האישי
User-agent: *
Disallow: /user-data/
# מתן גישה למודלים של גוגל לכל האתר פרט לאזור הלקוחות
User-agent: Google-Extended
Disallow: /client-area/
# בקשה לציון קרדיט על שימוש בתוכן
Request-Attribution: true
כדי להבין לעומק כיצד קובץ llms.txt עובד, חשוב לפרש את ההוראות שבתוכו. בדוגמה שהצגתי, שיניתי את ה**slugs** והפקודות כדי להמחיש גמישות ופרקטיקה נכונה:
- User-agent: * – פקודה זו היא כללית ופונה לכל הבוטים והמערכות של AI. היא למעשה אומרת: “ההוראות הבאות תקפות לכל מי שסורק את האתר שלי”. מתחתיה, החלפתי את
Disallowלתיקייה/user-data/, המיועדת להמחיש תיקייה שמכילה מידע רגיש או אישי שאינכם רוצים לשתף. - User-agent: Google-Extended – כאן אני מתמקד בבוט ספציפי – הבוט של גוגל, האחראי על Google SGE ומערכות ה-AI של החברה. פנייה לבוט מסוים מאפשרת לנו לתת לו הוראות ייחודיות, כפי שעשינו עם הפקודה
Disallow: /my-account/
אז בהנחה ותרצו להסתיר עמודים מסוים פשוט צרפו את הסיומת שלהם תחת Disallow וכך תמנעו את הסריקה שלהם.
- Request-Attribution: true – פקודה זו היא אחת החשובות. היא פונה ישירות למערכת ה-AI ומבקשת ממנה באופן רשמי ומפורש לצטט ולאזכר את שם האתר שלכם כמקור המידע, במידה והיא משתמשת בתוכן שלכם. שימוש ב-
trueבמקום היא הדרך המקובלת יותר כיום.
ההיגיון מאחורי שינויים אלו הוא פשוט: כל llms.txt צריך להיות מותאם אישית לצרכים ולמבנה של האתר שלכם. על ידי שינוי ה-slugs והתאמת ההוראות, אתם מבטיחים שהקובץ ישקף בצורה הטובה ביותר את המדיניות והדגשים שלכם, וייתן לכם שליטה אמיתית על תוכן AI באתר.
איך מעלים את הקובץ לאתר?
לאחר שיצרתם את קובץ llms.txt במחשב שלכם, יש להעלות אותו לספריית השורש (Root Directory) של האתר באמצעות FTP או דרך מנהל הקבצים בפאנל הניהול של האחסון שלכם, קרא לו בדיוק בשם שהוא כתוב עם הסיומת .txt .
ודאו שניתן לגשת אליו בכתובת: https://yourdomain.com/llms.txt.
האם מומלץ להשתמש בקובץ llms.txt?
בהחלט מודלי שפה וכלים גנרטיביים מנהלים חלק נכבד מהשיחות ברשת, אי-שימוש בקובץ זה הוא כמו בניית אתר בלי להתחשב בגוגל.
השימוש בקובץ llms.txt אינו רק עניין של הגנה על התוכן, אלא מהווה הזדמנות אסטרטגית להציג את התוכן שלכם בצורה הטובה ביותר, להבטיח שהוא מובן על ידי ה-AI ולקבל קרדיט על המידע שאתם מייצרים.
למעשה, זהו הצעד הראשון והחשוב ביותר שלכם בבניית אסטרטגיית Generative Engine Optimization (GEO).
הפעלת קובץ llms.txt עם תוסף Yoast SEO
אם יש ברשותכם אתר וורדפרס סביר להניח שתוסף Yoast SEO כבר מותקן באתר שלכם.
בהנחה והוא לא מותקן לכם באתר מומלץ להיכנס לספריית התוספים של וורדפרס ולהתקין אותו.
אם ברשותכם תוסף SEO אחר שהוא לא יואסט, אני ממליץ לייצר את הקובץ ששיתפתי למעלה במדריך ולהטמיע אותו בתיקיית public_html באופן עצמאי הקיימת בסביבת האחסון שלכם או בקשו סיוע מחברת האחסון שלכם.
שלב 1
ניגש ללוח הבקרה ונלחץ על לשונית Yoast SEO ולאחר מכן הגדרות.

שלב 2
נגיש ללשונית מתקדם ונלחץ על תת הלשונית llms.txt

שלב אחרון
- נפעיל את קובץ llms.txt
- נאפשר ליואסט לבחור עברנו את העמודים לסריקה.
- לחילופין נבחר בעצמנו באופן ידני עפ״י הרשימה שהתוסף מאפשר לנו.
- לאחר הביצוע הכל נשמר אוטומטי.

וזהו סיימנו הכל יתחיל לעבוד בצורה תקינה!
מה ההבדל בין קובץ robot.txt לקובץ llms.txt?
קובץ robots.txt מורה למנועי חיפוש אילו דפים באתר לסרוק או לא לסרוק, בעוד שקובץ llms.txt מכוון את כלי הבינה המלאכותית כיצד להשתמש בתוכן שכבר קיים באתר.
הראשון מתמקד בשליטה על סריקה ואינדוקס, והשני בשליטה על אופן ההצגה והציטוט של התוכן על ידי ה-AI.
להלן טבלת השוואה בין קובץ robot.txt לקובץ llms.txt:
| תכונה | robots.txt | llms.txt |
| מטרה עיקרית | שליטה בסריקה: מורה למנועי חיפוש (כמו Googlebot) אילו דפים או תיקיות לסרוק או לא לסרוק לצורך אינדוקס. | הכוונה ומתן הוראות: מורה למודלי בינה מלאכותית (LLMs) כיצד להשתמש בתוכן האתר (לדוגמה, ציטוט, סיכום, או אזכור). |
| מנועים רלוונטיים | מנועי חיפוש (Google, Bing, DuckDuckGo). | מנועי חיפוש גנרטיביים וכלי AI (ChatGPT, Google SGE, Bing Copilot, Claude). |
| פורמט | קובץ טקסט פשוט (.txt) עם פקודות כמו User-agent, Allow, Disallow. | קובץ טקסט פשוט (.txt) עם פקודות דומות וכן פקודות ייעודיות כמו Request-Attribution. |
| שליטה על אינדוקס | שליטה ישירה: חסימת עמודים באמצעות Disallow מונעת מהם כמעט בוודאות להופיע בתוצאות חיפוש. | שליטה עקיפה: מטרתו אינה למנוע אינדוקס, אלא להנחות כיצד התוכן שכן אונדקס צריך להיות מוצג על ידי ה-AI. |
| השפעה על דירוג | השפעה ישירה: עמודים שנסרקים היטב ומוערכים יכולים לדרג גבוה יותר. | השפעה עקיפה: עמודים שהונחו היטב ל-AI יכולים לקבל אזכורים ב”תשובות גנרטיביות” ובכך לשפר את הנראות והאמינות. |
| טיפול בקניין רוחני | ללא מענה ישיר: אין בקובץ זה פקודות להתייחסות לקניין רוחני או לציטוט. | מענה ישיר: כולל פקודות כמו Request-Attribution המאפשרות לבעל האתר לבקש קרדיט על התוכן. |
| מטרת הבעלים | למנוע עמודים לא רלוונטיים או פרטיים מלהופיע בתוצאות החיפוש. | להבטיח שהתוכן האיכותי ביותר מוצג בצורה הטובה ביותר על ידי ה-AI, תוך שמירה על המותג. |
לסיכום על קובץ llms.txt
קובץ llms.txt הוא כלי אסטרטגי חיוני המעניק לכם שליטה על התוכן הדיגיטלי שלכם בעידן הבינה המלאכותית.
בעזרת המדריך הזה, למדתם איך ליישם אותו בקלות, בין אם באמצעות תוספים כמו Yoast SEO או באופן ידני.
השימוש בקובץ מבטיח שהתוכן שלכם יישאר רלוונטי, מדויק וגלוי למנועי חיפוש ה-AI, ומסייע לכם להגן על הקניין הרוחני שלכם.
קראו עוד על קידום אתרים בגוגל.
