Duplicate Line Remover

टेक्स्ट से डुप्लीकेट पंक्तियाँ हटाएँ, केवल अद्वितीय पंक्तियाँ बनाए रखें

उदाहरण देखें

इनपुट पंक्तियाँ

अद्वितीय पंक्तियाँ

स्थानीय रूप से चलता है · सीक्रेट पेस्ट करना सुरक्षित है
अद्वितीय पंक्तियाँ यहाँ दिखेंगी…

डुप्लीकेट पंक्ति हटाना क्या है?

डुप्लीकेट पंक्ति हटाना वह प्रक्रिया है जिसमें किसी टेक्स्ट ब्लॉक को पंक्ति दर पंक्ति जाँचा जाता है और प्रत्येक अद्वितीय पंक्ति की केवल पहली उपस्थिति बनाए रखी जाती है। जब आप ऑनलाइन डुप्लीकेट पंक्तियाँ हटाते हैं, तो यह उपकरण आपके इनपुट को नई पंक्ति के वर्णों पर विभाजित करता है, हैश-आधारित डेटा संरचना (जैसे Set) का उपयोग करके यह ट्रैक करता है कि कौन-सी पंक्तियाँ पहले आ चुकी हैं, और केवल वे पंक्तियाँ आउटपुट करता है जो पहले नहीं देखी गई थीं। मूल पंक्ति क्रम सुरक्षित रहता है।

दो पंक्तियाँ तब डुप्लीकेट मानी जाती हैं जब वे वर्ण-दर-वर्ण बिल्कुल समान हों। हालाँकि, वास्तविक डेटा में सटीक मिलान हमेशा संभव नहीं होता। आगे या पीछे के रिक्त स्थान, असंगत अक्षर आकार, और टैब या कैरेज रिटर्न जैसे अदृश्य वर्ण — ये सभी दो समान दिखने वाली पंक्तियों को अद्वितीय मनवा सकते हैं। इसीलिए अधिकांश डीडुप्लीकेशन उपकरण केस-असंवेदनशील तुलना और तुलना से पहले रिक्त स्थान ट्रिमिंग के विकल्प प्रदान करते हैं।

डीडुप्लीकेशन क्रमबद्धता से भिन्न प्रक्रिया है। Unix कमांड sort -u पंक्तियों को वर्णानुक्रम में क्रमबद्ध करने के बाद डुप्लीकेट हटाती है, जिससे पंक्ति क्रम बदल जाता है। यदि आप मूल क्रम बनाए रखना चाहते हैं, तो seen-set दृष्टिकोण आवश्यक है: पंक्तियों को क्रमानुसार देखें, प्रत्येक पंक्ति का सामान्यीकृत रूप एक सेट में जोड़ें, और वे पंक्तियाँ छोड़ें जिनकी कुंजी पहले से मौजूद हो। यह उपकरण seen-set पद्धति का उपयोग करता है, इसलिए पहली उपस्थितियाँ अपने मूल स्थान पर बनी रहती हैं।

यह Duplicate Remover क्यों उपयोग करें?

अपना टेक्स्ट चिपकाएँ, तुलना विकल्प चुनें, और डीडुप्लीकेट परिणाम तुरंत देखें। कमांड लाइन सेटअप नहीं, regex लिखने की ज़रूरत नहीं, फ़ाइल अपलोड नहीं।

तत्काल डीडुप्लीकेशन
टाइप करते या चिपकाते ही परिणाम अपडेट हो जाते हैं। केस संवेदनशीलता और रिक्त स्थान ट्रिमिंग को टॉगल करें और देखें कि भिन्न विकल्प आउटपुट को कैसे प्रभावित करते हैं — कुछ भी दोबारा चलाए बिना।
🔒
गोपनीयता-केंद्रित प्रोसेसिंग
सभी डीडुप्लीकेशन JavaScript का उपयोग करके आपके ब्राउज़र में होती है। आपका टेक्स्ट आपके डिवाइस पर रहता है और किसी सर्वर पर कभी अपलोड या लॉग नहीं होता।
🎯
कॉन्फ़िगरेशन योग्य मिलान
"Apple" और "apple" को एक ही पंक्ति मानने के लिए केस-असंवेदनशील मोड सक्षम करें। तुलना के दौरान आगे और पीछे के रिक्त स्थान अनदेखा करने के लिए रिक्त स्थान ट्रिमिंग चालू करें।
📋
कोई खाता आवश्यक नहीं
पेज खोलें और डीडुप्लीकेट करना शुरू करें। कोई साइनअप नहीं, कोई ब्राउज़र एक्सटेंशन नहीं, कोई डेस्कटॉप इंस्टॉलेशन नहीं। आधुनिक ब्राउज़र वाले किसी भी डिवाइस पर काम करता है।

Duplicate Line Remover के उपयोग के अवसर

फ्रंटएंड विकास
CSS क्लास सूचियाँ साफ करें, दोहराए गए imports हटाएँ, या i18n अनुवाद कुंजियाँ डीडुप्लीकेट करें। कमिट से पहले डुप्लीकेट हटाने से बंडल का आकार कम रहता है और मर्ज विवाद घटते हैं।
बैकएंड इंजीनियरिंग
शाखाएँ मर्ज करने के बाद requirements.txt, Gemfile, या package.json निर्भरता सूचियों में डुप्लीकेट प्रविष्टियाँ हटाएँ। अनुमति सूचियों, प्रतिबंध सूचियों, या रूटिंग तालिकाओं से दोहराई प्रविष्टियाँ हटाएँ।
DevOps और इंफ्रास्ट्रक्चर
.env फ़ाइलों, होस्ट सूचियों, या Kubernetes ConfigMaps से डुप्लीकेट प्रविष्टियाँ साफ करें। डुप्लीकेट पर्यावरण चर मूक ओवरराइड का कारण बनते हैं, इसलिए तैनाती से पहले उन्हें पकड़ने से कठिन-ट्रेस कॉन्फ़िगरेशन त्रुटियाँ टलती हैं।
QA और परीक्षण स्वचालन
परीक्षण रन मेनिफेस्ट से दोहराए गए परीक्षण केस ID हटाएँ या उत्पन्न परीक्षण सूट में डुप्लीकेट दावे हटाएँ। लॉग आउटपुट से त्रुटि संदेश डीडुप्लीकेट करें ताकि विफलताओं का अद्वितीय समूह देख सकें।
डेटा इंजीनियरिंग
CSV निर्यात या टेक्स्ट के रूप में चिपकाए गए SQL क्वेरी परिणामों से डुप्लीकेट पंक्तियाँ हटाएँ। ईमेल सूचियाँ, उपयोगकर्ता ID सूचियाँ, या टैग सूचियाँ डेटाबेस या पाइपलाइन में आयात करने से पहले साफ करें।
विद्यार्थी और शिक्षार्थी
शब्दावली सूचियों, संदर्भ सूची पंक्तियों, या अध्ययन नोट्स से दोहराई प्रविष्टियाँ हटाएँ। अनेक स्रोतों की सामग्री चिपकाएँ और स्प्रेडशीट एप्लिकेशन इंस्टॉल किए बिना एक स्वच्छ, अद्वितीय सूची प्राप्त करें।

डीडुप्लीकेशन पद्धतियों की तुलना

डुप्लीकेट पंक्तियाँ हटाने के कई दृष्टिकोण हैं, जिनमें से प्रत्येक में क्रम संरक्षण, मेमोरी उपयोग और सटीकता के लिए भिन्न समझौते होते हैं।

पद्धतिकार्यप्रणालीआउटपुट क्रमउपयोग का स्थान
SetHash-based, O(1) lookupUnorderedJavaScript Set, Python set()
Sorted + scanSort then skip adjacentSorted outputUnix sort -u, C++ std::unique
Seen-set + listTrack seen, preserve orderOriginal orderThis tool, Python dict.fromkeys()
Bloom filterProbabilistic membershipMay miss someLarge-scale pipelines, Redis
SQL DISTINCTDatabase-level dedupQuery-dependentSELECT DISTINCT col FROM table

केस संवेदनशीलता और रिक्त स्थान प्रबंधन

दो विकल्प यह निर्धारित करते हैं कि यह उपकरण दो पंक्तियों को डुप्लीकेट मानता है या नहीं। यह समझना कि प्रत्येक विकल्प कब उपयोग करना है, false positives (भिन्न पंक्तियों को डुप्लीकेट मानना) और false negatives (मिलान होने वाली पंक्तियों को छोड़ना) दोनों से बचाता है।

केस संवेदनशील (डिफ़ॉल्ट: चालू)
सक्षम होने पर "Apple" और "apple" को भिन्न पंक्तियाँ माना जाता है। उपयोगकर्ता-प्रस्तुत डेटा, डोमेन नाम सूचियों, या किसी भी टेक्स्ट की डीडुप्लीकेशन करते समय इसे बंद करें जहाँ अक्षर आकार असंगत हो लेकिन अर्थ समान हो।
रिक्त स्थान ट्रिम करें (डिफ़ॉल्ट: चालू)
सक्षम होने पर, तुलना से पहले आगे और पीछे के रिक्त स्थान और टैब हटा दिए जाते हैं। यह उन पंक्तियों को पकड़ता है जो समान दिखती हैं लेकिन अदृश्य वर्णों में भिन्न होती हैं — जो कॉपी-पेस्ट किए गए टर्मिनल आउटपुट, इंडेंटेड कॉन्फ़िग फ़ाइलों और संपादक कलाकृतियों में सामान्य है।

कोड उदाहरण

JavaScript, Python, Go और कमांड लाइन में प्रोग्रामेटिक रूप से डुप्लीकेट पंक्तियाँ हटाएँ। प्रत्येक उदाहरण क्रम-संरक्षण डीडुप्लीकेशन दर्शाता है और केस संवेदनशीलता संभालता है।

JavaScript
const text = `apple
banana
apple
Cherry
banana
cherry`

// Remove exact duplicates, preserve order
const unique = [...new Map(
  text.split('\n').map(line => [line, line])
).values()].join('\n')
// → "apple\nbanana\nCherry\ncherry"

// Case-insensitive deduplication
const seen = new Set()
const ciUnique = text.split('\n').filter(line => {
  const key = line.toLowerCase()
  if (seen.has(key)) return false
  seen.add(key)
  return true
}).join('\n')
// → "apple\nbanana\nCherry"

// Trim whitespace before comparing
const trimDedup = text.split('\n').filter(line => {
  const key = line.trim().toLowerCase()
  if (seen.has(key)) return false
  seen.add(key)
  return true
}).join('\n')
Python
text = """apple
banana
apple
Cherry
banana
cherry"""

lines = text.splitlines()

# Remove duplicates, preserve order (Python 3.7+)
unique = list(dict.fromkeys(lines))
# → ['apple', 'banana', 'Cherry', 'cherry']

# Case-insensitive deduplication
seen = set()
ci_unique = []
for line in lines:
    key = line.lower()
    if key not in seen:
        seen.add(key)
        ci_unique.append(line)
# → ['apple', 'banana', 'Cherry']

# With whitespace trimming
seen = set()
trimmed = []
for line in lines:
    key = line.strip().lower()
    if key not in seen:
        seen.add(key)
        trimmed.append(line)
Go
package main

import (
	"fmt"
	"strings"
)

func removeDuplicates(text string) string {
	lines := strings.Split(text, "\n")
	seen := make(map[string]bool)
	result := make([]string, 0, len(lines))

	for _, line := range lines {
		if !seen[line] {
			seen[line] = true
			result = append(result, line)
		}
	}
	return strings.Join(result, "\n")
}

func main() {
	text := "apple\nbanana\napple\ncherry\nbanana"
	fmt.Println(removeDuplicates(text))
	// → apple\nbanana\ncherry
}
CLI (bash)
# Remove duplicates (sorts output — does not preserve order)
sort -u file.txt

# Remove duplicates while preserving original order
awk '!seen[$0]++' file.txt

# Case-insensitive dedup, preserve order
awk 'BEGIN{IGNORECASE=1} !seen[tolower($0)]++' file.txt

# Trim whitespace then dedup
sed 's/^[[:space:]]*//;s/[[:space:]]*$//' file.txt | awk '!seen[$0]++'

# Count duplicates before removing
sort file.txt | uniq -c | sort -rn

अक्सर पूछे जाने वाले प्रश्न

डुप्लीकेट हटाने और sort -u उपयोग करने में क्या अंतर है?
sort -u कमांड पहले सभी पंक्तियों को वर्णानुक्रम में क्रमबद्ध करती है और फिर आसन्न डुप्लीकेट हटाती है। इससे मूल पंक्ति क्रम बदल जाता है। seen-set दृष्टिकोण — जिसका यह उपकरण उपयोग करता है — पंक्तियों को क्रमानुसार देखता है और जो पंक्ति पहले आ चुकी है उसे छोड़ देता है, जिससे मूल अनुक्रम बना रहता है। sort -u तब उपयोग करें जब आप क्रमबद्ध और अद्वितीय आउटपुट दोनों चाहते हों। seen-set दृष्टिकोण तब उपयोग करें जब क्रम महत्वपूर्ण हो।
क्या डुप्लीकेट हटाते समय मेरा टेक्स्ट सर्वर पर भेजा जाता है?
नहीं। सभी प्रोसेसिंग JavaScript का उपयोग करके आपके ब्राउज़र में होती है। टेक्स्ट कभी आपके डिवाइस से बाहर नहीं जाता। आप इसे अपने ब्राउज़र के DevTools Network टैब खोलकर और यह सुनिश्चित करके सत्यापित कर सकते हैं कि टेक्स्ट चिपकाने और विकल्प बदलने पर कोई नेटवर्क अनुरोध नहीं होता।
यह उपकरण कितनी पंक्तियाँ संभाल सकता है?
यह उपकरण दसियों हज़ार पंक्तियों के साथ अच्छी तरह काम करता है। JavaScript के Set की औसत लुकअप जटिलता O(1) है, इसलिए आधुनिक हार्डवेयर पर 1,00,000 पंक्तियों की डीडुप्लीकेशन 100 मिलीसेकंड से कम समय लेती है। कुछ मेगाबाइट से बड़ी फ़ाइलों के लिए, कमांड लाइन पर awk '!seen[$0]++' एक-लाइनर उपयोग करें, जो फ़ाइल को पूरी तरह मेमोरी में लोड किए बिना उसे स्ट्रीम करता है।
केस-असंवेदनशील डीडुप्लीकेशन कैसे काम करती है?
जब केस संवेदनशीलता बंद हो, तो देखी गई पंक्तियों के सेट में जाँचने से पहले प्रत्येक पंक्ति को लोअरकेस में बदला जाता है। आउटपुट में पहली उपस्थिति का मूल-आकार वाला संस्करण रखा जाता है। अतः यदि आपके इनपुट में पंक्ति 1 पर "Apple" और पंक्ति 5 पर "apple" है, तो "Apple" बनी रहेगी और "apple" हटा दी जाएगी।
क्या मैं एक साथ डुप्लीकेट हटा सकता हूँ और क्रमबद्ध भी कर सकता हूँ?
यह उपकरण पंक्ति क्रम बदले बिना डुप्लीकेट हटाता है। क्रमबद्ध और अद्वितीय आउटपुट पाने के लिए, पहले उसी श्रेणी में Line Sorter उपकरण से अपना टेक्स्ट क्रमबद्ध करें, फिर क्रमबद्ध परिणाम यहाँ चिपकाकर शेष डुप्लीकेट हटाएँ। वैकल्पिक रूप से, एक-चरण समाधान के लिए कमांड लाइन पर sort -u उपयोग करें।
रिक्त पंक्तियों और केवल-रिक्त स्थान वाली पंक्तियों का क्या होता है?
रिक्त पंक्तियों को किसी भी अन्य पंक्ति की तरह माना जाता है। यदि आपके टेक्स्ट में तीन रिक्त पंक्तियाँ हैं, तो केवल पहली बनाए रखी जाती है। जब रिक्त स्थान ट्रिमिंग चालू हो, तो केवल रिक्त स्थान या टैब वाली पंक्तियाँ तुलना से पहले रिक्त स्ट्रिंग में सामान्यीकृत हो जाती हैं, इसलिए उन्हें पहली रिक्त या केवल-रिक्त स्थान वाली पंक्ति के डुप्लीकेट माना जाता है।
मैं किसी विशिष्ट स्तंभ के आधार पर CSV फ़ाइल से डुप्लीकेट कैसे हटाऊँ?
यह उपकरण पूरी पंक्तियों की तुलना करता है, न कि अलग-अलग स्तंभों की। किसी विशिष्ट स्तंभ के आधार पर CSV डीडुप्लीकेट करने के लिए, awk को फ़ील्ड विभाजक के साथ उपयोग करें: awk -F',' '!seen[$2]++' file.csv दूसरे स्तंभ में डुप्लीकेट मान वाली पंक्तियाँ हटाता है। Python में pandas उपयोग करें: df.drop_duplicates(subset=['column_name'])। SQL डेटा के लिए, लक्ष्य स्तंभ पर SELECT DISTINCT या GROUP BY उपयोग करें।