英語の複合化


28

複合語は、2つ以上の単語が含まれる単語です。ただし、それよりもうまくいくことができます。すべての単語を含む1つの(意味のない)単語作成する必要があります

ただし、この単語はできるだけ短くする必要があります。重複する文字を使用してこれを実現できます。

たとえば、単語リストがの場合、["cat", "atom", "a"]を返し"catom"ます。

入出力

プログラムでは、単語のリストを入力として受け取り、複合語を出力として返す必要があります。

Googleによると、使用する単語リストは英語の上位10000単語です(このリストが簡単すぎると判明した場合は、もっと長いものに変更する可能性があります)。参考までに、各単語を追加するだけで65888のスコアが得られます。

スコアは最終単語の文字数であり、低いほど良いです。タイブレーカーは最初のポスターに行きます。



1
@Loovjoいいえ、しかし、ブルートフォーシングが実行するのに十分な速さになると、単語リストを変更して長くします。
ネイサンメリル

1
@PatrickRoberts回答に収まる場合は、小道具をお勧めします:) pastebin / gistリンクは素晴らしいものですが、必須ではありません。
ネイサンメリル

1
うーん、優れた非対称巡回セールスマンヒューリスティックを知っていますか?
デイブ

2
ラッピングなし、決定論的はい。
ネイサンメリル

回答:


26

C ++、最終ワード長:38272

(最適化されたバージョンは約20分かかりました)

#include <iostream>
#include <string>
#include <vector>

std::size_t calcOverlap(const std::string &a, const std::string &b, std::size_t limit, std::size_t minimal) {
    std::size_t la = a.size();
    for(std::size_t p = std::min(std::min(la, b.size()), limit + 1); -- p > minimal; ) {
        if(a.compare(la - p, p, b, 0, p) == 0) {
            return p;
        }
    }
    return 0;
}

int main() {
    std::vector<std::string> words;

    // Load all words from input
    while(true) {
        std::string word;
        std::getline(std::cin, word);
        if(word.empty()) {
            break;
        }
        words.push_back(word);
    }

    std::cerr
        << "Input word count: " << words.size() << std::endl;

    // Remove all fully subsumed words

    for(auto p = words.begin(); p != words.end(); ) {
        bool subsumed = false;
        for(auto i = words.begin(); i != words.end(); ++ i) {
            if(i == p) {
                continue;
            }
            if(i->find(*p) != std::string::npos) {
                subsumed = true;
                break;
            }
        }
        if(subsumed) {
            p = words.erase(p);
        } else {
            ++ p;
        }
    }

    std::cerr
        << "After subsuming checks: " << words.size()
        << std::endl;

    // Sort words longest-to-shortest (not necessary but doesn't hurt. Makes finding maxlen a tiny bit easier)
    std::sort(words.begin(), words.end(), [](const std::string &a, const std::string &b) {
        return a.size() > b.size();
    });

    std::size_t maxlen = words.front().size();

    // Repeatedly combine most-compatible words until there is only one left
    std::size_t bestPossible = maxlen - 1;
    while(words.size() > 1) {
        auto bestA = words.begin();
        auto bestB = -- words.end();
        std::size_t bestOverlap = 0;
        for(auto p = ++ words.begin(), e = words.end(); p != e; ++ p) {
            if(p->size() - 1 <= bestOverlap) {
                continue;
            }
            for(auto q = words.begin(); q != p; ++ q) {
                std::size_t overlap = calcOverlap(*p, *q, bestPossible, bestOverlap);
                if(overlap > bestOverlap) {
                    bestA = p;
                    bestB = q;
                    bestOverlap = overlap;
                }
                overlap = calcOverlap(*q, *p, bestPossible, bestOverlap);
                if(overlap > bestOverlap) {
                    bestA = q;
                    bestB = p;
                    bestOverlap = overlap;
                }
            }
            if(bestOverlap == bestPossible) {
                break;
            }
        }
        std::string newStr = std::move(*bestA);
        newStr.append(*bestB, bestOverlap, std::string::npos);

        if(bestA == -- words.end()) {
            words.pop_back();
            *bestB = std::move(words.back());
            words.pop_back();
        } else {
            *bestB = std::move(words.back());
            words.pop_back();
            *bestA = std::move(words.back());
            words.pop_back();
        }

        // Remove any words which are now in the result
        for(auto p = words.begin(); p != words.end(); ) {
            if(newStr.find(*p) != std::string::npos) {
                std::cerr << "Now subsumes: " << *p << std::endl;
                p = words.erase(p);
            } else {
                ++ p;
            }
        }

        std::cerr
            << "Words remaining: " << (words.size() + 1)
            << " Latest combination: (" << bestOverlap << ") " << newStr
            << std::endl;

        words.push_back(std::move(newStr));
        bestPossible = bestOverlap; // Merging existing words will never make longer merges possible
    }

    std::string result = words.front();

    std::cout
        << result
        << std::endl;
    std::cerr
        << "Word size: " << result.size()
        << std::endl;
    return 0;
}

検証bashワンライナー:

cat commonwords.txt | while read p; do grep "$p" merged.txt >/dev/null || echo "Not found: $p"; done

また、かなりクールな進行中の言葉を生み出しました。私のお気に入りのいくつかを次に示します。

  • ポリエステルの日(合成ノスタルジア)
  • アフガニスタンブル([嫌いな政治家を挿入]と言うだろう)
  • togethernet (フレンドリーなインターネット)
  • elephantom (大きな幽霊)
  • thundergroundwaterproof (「彼らがなぜthundergroundwaterproofにする必要性を感じたかはわかりませんが、それは私を緊張させます」)

そして:

  • codescribingo (このサイトで今後の課題になるでしょうか?)

最終出力は、ここのペーストビンにあります:http : //pastebin.com/j3qYb65b


2
最適な解決策を求めている他の人に役立つかもしれない観測:問題は非ユークリッドの非対称巡回セールスマン問題に還元できます:要素i、j = max_word_length - overlap(word[i], word[j])(ここoverlapで、 2番目の左の最初の引数)。これを解決(幸運を祈ります!)して、結果のループを最高コスト(最小重複)でカットすると、単語の順序付きリストが得られ、それらをマージして最適なソリューションを得ることができます。
デイブ

印象的。これは、毎回、現在のリスト内のすべての単語を他のすべての単語に対してチェックしていますか?私はこれを検討していましたが、ランダムなサンプルをチェックして、妥当な時間で実行する必要があると思いました。
-trichoplax

1
@ValueInkはい、キャッシングはパフォーマンスを大幅に向上させます。以前のバージョンにはそれがありましたが、それは多くの複雑さを追加するので、いくつかのロジックを適応させるとき、私は多くを書き直さなければなりませんでした。代わりに、キャッシュをドロップすることにしました。また、これは完全に最適ではありません。貪欲なアルゴリズムであるため、トレードオフを判断できず、「同等の」オプションを選択できません。(NP-Hard)最適なソリューションについては、TSPのコメントをご覧ください。
デイブ

1
@trichoplaxうん、それがやっていることです。実行時間はO(n ^ 3)で、このサンプルサイズではそれほど悪くありません。キャッシュを使用すると、O(n ^ 2)に減らすことができます。内部チェックも非常に並列化可能であるため、より大きなサンプルでも、スレッド化/分散計算により妥当な時間で実行できます。また、各ステップで可能なオーバーラップ幅の範囲を知ることで、速度が大幅に向上し、ランタイムが10分の1に削減されます
Dave

2
これは一般的なTSPほど難しくないかもしれません。なぜなら、すべてのa 、b、c、d。
アンデルスカセオルグ16

21

C ++ 11、38272文字、最適であることが実証済み

このアルゴリズムにより、ソリューションの下限が保証されます。この場合、下限を達成し、最適な38272文字のソリューションを出力できます。(これは、Daveの貪欲なアルゴリズムで見つかったソリューションと一致します。最適であることがわかって驚き、少しがっかりしましたが、そこにあります。)

次のように構築されたネットワーク上の最小コストのフロー問題を解決することで機能します。

  • まず、他の単語に含まれる単語は冗長です。それらを破棄します。
  • すべての単語wについて、2つのノードw _0とw _1を描画します。ここで、w _0は容量1のソースで、w _1は容量1のシンクです。
  • 任意の単語のすべての(厳密な)プレフィックスまたはサフィックスaに対して、ノードaを描画します
  • すべてのサフィックスについてAワットから弧を描くワットに_0容量1およびコスト0です。
  • すべてのプレフィックスのためのAW、から弧を描くにW容量1とコスト長(と_1 W長( - ))。

すべての単語を含む長さnの文字列は、最大でnのコストでこのネットワーク上のフローに変換できます。。したがって、このネットワークの最小コストフローは、このような文字列の最短の長さの下限です。

運がよければ(この場合は)、w _1に入ってくるフローをw _0 からリダイレクトして戻すと、接続されたコンポーネントが1つだけで、空のノードを通過する最適なフローが見つかります。文字列。その場合は、そこにオイラーサーキットが開始および終了します。このようなオイラー回路は、最適な長さのストリングとして読み戻すことができます。

幸運でなければ、オイラー回路が存在することを確認するために、空の文字列と他の接続されたコンポーネントの最も短い文字列の間に余分なアークを追加します。その場合、文字列は必ずしも最適ではなくなります。

最小コストフローとオイラー回路アルゴリズムにLEMONライブラリを使用します。(このライブラリを使用するのはこれが初めてであり、感銘を受けました。将来のグラフアルゴリズムのニーズに間違いなく使用します。)LEMONには、4つの異なる最小コストフローアルゴリズムが付属しています。あなたがここでそれらを試すことができ--net--cost--cap、および--cycle(デフォルト)。

プログラムは0.5秒で実行され、この出力文字列が生成されます

#include <iostream>
#include <string>
#include <unordered_map>
#include <unordered_set>
#include <vector>
#include <lemon/core.h>
#include <lemon/connectivity.h>
#include <lemon/euler.h>
#include <lemon/maps.h>
#include <lemon/list_graph.h>
#include <lemon/network_simplex.h>
#include <lemon/cost_scaling.h>
#include <lemon/capacity_scaling.h>
#include <lemon/cycle_canceling.h>

using namespace std;

typedef lemon::ListDigraph G;

struct Word {
    G::Node suffix, prefix;
    G::Node tour_node;
};

struct Edge {
    unordered_map<string, Word>::iterator w;
    G::Arc arc;
};

struct Affix {
    vector<Edge> suffix, prefix;
    G::Node node;
    G::Node tour_node;
};

template<class MCF>
bool solve(const G &net, const G::ArcMap<int> &lowerMap, const G::ArcMap<int> &upperMap, const G::ArcMap<int> &costMap, const G::NodeMap<int> &supplyMap, int &totalCost, G::ArcMap<int> &flowMap)
{
    MCF mcf(net);
    if (mcf.lowerMap(lowerMap).upperMap(upperMap).costMap(costMap).supplyMap(supplyMap).run() != mcf.OPTIMAL)
        return false;
    totalCost = mcf.totalCost();
    mcf.flowMap(flowMap);
    return true;
}

int main(int argc, char **argv)
{
    clog << "Reading dictionary from stdin" << endl;
    unordered_map<string, Affix> affixes;
    unordered_map<string, Word> words;
    unordered_set<string> subwords;
    G net, tour;
    G::ArcMap<int> lowerMap(net), upperMap(net), costMap(net);
    G::NodeMap<int> supplyMap(net);
    string new_word;
    while (getline(cin, new_word)) {
        if (subwords.find(new_word) != subwords.end())
            continue;
        for (auto i = new_word.begin(); i != new_word.end(); ++i) {
            for (auto j = new_word.end(); j != i; --j) {
                string s(i, j);
                words.erase(s);
                subwords.insert(s);
            }
        }
        words.emplace(new_word, Word());
    }
    for (auto w = words.begin(); w != words.end(); ++w) {
        w->second.suffix = net.addNode();
        supplyMap.set(w->second.suffix, 1);
        w->second.prefix = net.addNode();
        supplyMap.set(w->second.prefix, -1);
        for (auto i = w->first.begin(); ; ++i) {
            affixes.emplace(string(w->first.begin(), i), Affix()).first->second.prefix.push_back(Edge {w});
            affixes.emplace(string(i, w->first.end()), Affix()).first->second.suffix.push_back(Edge {w});
            if (i == w->first.end())
                break;
        }
        w->second.tour_node = tour.addNode();
    }
    for (auto a = affixes.begin(); a != affixes.end();) {
        if (a->second.suffix.empty() || a->second.prefix.empty() ||
            (a->second.suffix.size() == 1 && a->second.prefix.size() == 1 &&
             a->second.suffix.begin()->w == a->second.prefix.begin()->w)) {
            affixes.erase(a++);
        } else {
            a->second.node = net.addNode();
            supplyMap.set(a->second.node, 0);
            for (auto &e : a->second.suffix) {
                e.arc = net.addArc(e.w->second.suffix, a->second.node);
                lowerMap.set(e.arc, 0);
                upperMap.set(e.arc, 1);
                costMap.set(e.arc, 0);
            }
            for (auto &e : a->second.prefix) {
                e.arc = net.addArc(a->second.node, e.w->second.prefix);
                lowerMap.set(e.arc, 0);
                upperMap.set(e.arc, 1);
                costMap.set(e.arc, e.w->first.length() - a->first.length());
            }
            a->second.tour_node = lemon::INVALID;
            ++a;
        }
    }

    clog << "Read " << words.size() << " words and found " << affixes.size() << " affixes; ";
    clog << "created network with " << countNodes(net) << " nodes and " << countArcs(net) << " arcs" << endl;

    int totalCost;
    G::ArcMap<int> flowMap(net);
    bool solved;
    if (argc > 1 && string(argv[1]) == "--net") {
        clog << "Using network simplex algorithm" << endl;
        solved = solve<lemon::NetworkSimplex<G>>(net, lowerMap, upperMap, costMap, supplyMap, totalCost, flowMap);
    } else if (argc > 1 && string(argv[1]) == "--cost") {
        clog << "Using cost scaling algorithm" << endl;
        solved = solve<lemon::CostScaling<G>>(net, lowerMap, upperMap, costMap, supplyMap, totalCost, flowMap);
    } else if (argc > 1 && string(argv[1]) == "--cap") {
        clog << "Using capacity scaling algorithm" << endl;
        solved = solve<lemon::CapacityScaling<G>>(net, lowerMap, upperMap, costMap, supplyMap, totalCost, flowMap);
    } else if ((argc > 1 && string(argv[1]) == "--cycle") || true) {
        clog << "Using cycle canceling algorithm" << endl;
        solved = solve<lemon::CycleCanceling<G>>(net, lowerMap, upperMap, costMap, supplyMap, totalCost, flowMap);
    }

    if (!solved) {
        clog << "error: no solution found" << endl;
        return 1;
    }
    clog << "Lower bound: " << totalCost << endl;

    G::ArcMap<string> arcLabel(tour);
    G::Node empty = tour.addNode();
    affixes.find("")->second.tour_node = empty;
    for (auto &a : affixes) {
        for (auto &e : a.second.suffix) {
            if (flowMap[e.arc]) {
                if (a.second.tour_node == lemon::INVALID)
                    a.second.tour_node = tour.addNode();
                arcLabel.set(tour.addArc(e.w->second.tour_node, a.second.tour_node), "");
            }
        }
        for (auto &e : a.second.prefix) {
            if (flowMap[e.arc]) {
                if (a.second.tour_node == lemon::INVALID)
                    a.second.tour_node = tour.addNode();
                arcLabel.set(tour.addArc(a.second.tour_node, e.w->second.tour_node), e.w->first.substr(a.first.length()));
            }
        }
    }

    clog << "Created tour graph with " << countNodes(tour) << " nodes and " << countArcs(tour) << " arcs" << endl;

    G::NodeMap<int> compMap(tour);
    int components = lemon::stronglyConnectedComponents(tour, compMap);
    if (components != 1) {
        vector<unordered_map<string, Affix>::iterator> breaks(components, affixes.end());
        for (auto a = affixes.begin(); a != affixes.end(); ++a) {
            if (a->second.tour_node == lemon::INVALID)
                continue;
            int c = compMap[a->second.tour_node];
            if (c == compMap[empty])
                continue;
            auto &b = breaks[compMap[a->second.tour_node]];
            if (b == affixes.end() || b->first.length() > a->first.length())
                b = a;
        }
        int offset = 0;
        for (auto &b : breaks) {
            if (b != affixes.end()) {
                arcLabel.set(tour.addArc(empty, b->second.tour_node), b->first);
                arcLabel.set(tour.addArc(b->second.tour_node, empty), "");
                offset += b->first.length();
            }
        }
        clog << "warning: Found " << components << " components; solution may be suboptimal by up to " << offset << " letters" << endl;
    }

    if (!lemon::eulerian(tour)) {
        clog << "error: failed to make tour graph Eulerian" << endl;
        return 1;
    }

    for (lemon::DiEulerIt<G> e(tour, empty); e != lemon::INVALID; ++e)
        cout << arcLabel[e];
    cout << endl;

    return 0;
}

最小フローがどのように機能するかを理解できると主張することはできませんが、これが本当に最適であれば、よくやった!
ネイサンメリル

1
失望して申し訳ありません。PIはフローネットワークを考えていませんでした。それはかなりエレガントです。「単語のすべての(厳密な)接頭辞または接尾辞aについて、ノードaを描画する」ことは、ノード「a」が共有できることを意味する前に、ネットワークで単語をリンクする方法を理解するのにしばらくかかりました複数の単語。
デイブ

1
また、ソリューションは私のソリューションよりも約2,000倍高速です!
デイブ

1
この男(cs.cmu.edu/~tom7/portmantout)が同様のことを試みて助けてくれるかもしれません。
オリバーDaugherty-Long

2
@ OliverDaugherty-Long Done!(。本当のこの時間のために)最高の以前から知られている境界が最適≤長さ≤537136 520732だった、と私は私が536186.両方の境界改善していると信じて
アンダースKaseorg

13

Java 8、最大5分、長さ39,279

import java.io.BufferedReader;
import java.io.File;
import java.io.FileReader;
import java.util.ArrayList;
import java.util.HashSet;
import java.util.List;
import java.util.Optional;
import java.util.Set;
import java.util.stream.Collectors;

public class Words {

    public static void main(String[] args) throws Throwable {
        File file = new File("words.txt");
        List<String> wordsList = new ArrayList<>();
        BufferedReader reader = new BufferedReader(new FileReader(file));
        String line;
        while ((line = reader.readLine()) != null) {
            wordsList.add(line);
        }
        reader.close();

        Set<String> words = new HashSet<>();

        System.out.println("Finished I/O");

        for (int i = 0; i < wordsList.size(); i++) { //Step 1: remove any words that occur in other words
            boolean in = false;
            for (int j = 0; j < wordsList.size(); j++) {
                if (i != j && wordsList.get(j).contains(wordsList.get(i))) {
                    in = true;
                    break;
                }
            }
            if (!in) {
                words.add(wordsList.get(i));
            }
        }

        System.out.println("Removed direct containers");

        List<String> working = words.stream().sorted((c, b) -> Integer.compare(c.length(), b.length())).collect(Collectors.toList()); //Sort by length, shortest first
        StringBuilder result = new StringBuilder();
        result.append(working.get(0));
        while (!working.isEmpty()) {
            Optional<String> target = working.stream().sorted((c, b) -> Integer.compare(firstLastCommonality(result.toString(), b), firstLastCommonality(result.toString(), c))).findFirst(); //Find the string that has the greatest in common with the end of 'result'
            if(target.isPresent()) { //It really should be present, but just in case
                String s = target.get();
                working.remove(s);
                int commonality = firstLastCommonality(result.toString(), s);
                s = s.substring(commonality);
                result.append(s);
            }
        }

        System.out.println("Finished algorithm");

        String r = result.toString();
        System.out.println("The string: \n" + r);
        System.out.println("Length: \n" + r.length());
        System.out.println("Verified: \n" + !wordsList.stream().filter(s -> !r.contains(s)).findFirst().isPresent());
    }

    private static int firstLastCommonality(String a, String b) {
        int count = 0;
        int len = b.length();
        while (!a.endsWith(b) && !b.equals("")) {
            b = cutLastChar(b);
            count++;
        }
        return len - count;
    }

    private static String cutLastChar(String string) {
        if (string.length() - 1 < 0) {
            return string;
        } else {
            return string.substring(0, string.length() - 1);
        }
    }

}

入力:

  • メインポスト内のファイルとまったく同じ形式の、作業ディレクトリ内の「words.txt」というファイル

出力:

Finished I/O
Removed direct containers
Finished algorithm
The string: 
[Moved to pastebin](http://pastebin.com/iygyR3zL)
Length: 
39279
Verified: 
true

2
FGITW、そしてJavaでも同じです。あなたは私の票を持っています。
パトリックロバーツ

2
いいね!あなたは26,609キャラクターを取り除きました。
R.ガプス

@ R.Kap go figure!これは気にするようになっただけで最初のもの...である、けれども私も賢くアルゴリズムが存在する必要があります...それを計算するとは思いませんでした
ソクラテスのフェニックス

7

Python 2、39254文字

マシン上で実行するのに1〜2分かかります。最長の単語を取得し、共通する文字列が最も多い結果文字列に常に単語を追加することで動作します。(他の単語の部分文字列であるすべての単語は、文字列への不必要な追加を防ぐために削除される前に。)

更新:両方の方向を見ようとしましたが、それはそれ以上良くなりません。(たぶん、後でもっとよく使える単語を使っているのでしょうか?)

pastebinの単語へのリンク。

最初の100文字:

telecommunicationsawayneillegallynnbabyenbcjrxltdxmlbsrcwvtxxxboxespnycdsriconsentencessexyrsslipodc

コード:

import re
import urllib

def suffix_dist(w1,w2):
    for i in range(min(map(len,[w1,w2])))[::-1]:
        if w1[-i:]==w2[:i]:
            return i
    return 0

url="https://raw.githubusercontent.com/first20hours/google-10000-english/master/google-10000-english.txt"
s=urllib.urlopen(url).read()
words=s.split()
words.sort(key=len,reverse=True)

## remove words that are substrings of other words anyway
for i in range(len(words))[::-1]:
    if any(words[i] in w for w in words[:i]):
        words.pop(i)

print len(words)

words.sort(key=len)
w1=words.pop(-1)
result=w1
while words:
    ## get the word with longest shared suffix/prefix
    w2=max(words,key=lambda x:suffix_dist(w1,x))
    print w2
    words.pop(words.index(w2))
    if w2 in result:
        break
    result+=w2[suffix_dist(w1,w2):]
    w1=w2


print result[:100]
print len(result)
print "Test:", all(w in result for w in s.split())

2
Welp、私は25人のキャラクターにbeatられました...そのために+1
ソクラティックフェニックス

よくやった!私も同じような考えを持っていましたが、すでに答えがありました。私のバージョンは、大きな単語の代わりに小さな単語から始まり、それに加えて、実行するのに最大3倍の時間を要する時間要素を大幅に失います。
値インク

5

ルビー、39222文字

Pythonの回答で@KarlKastorと同様のアプローチを使用していますが、開始文字列は最大ではなく最小の単語の1つです。別の最適化(それがどれだけ役立つかはわかりません)は、各追加の間に、単語の重複により既に文字列に含まれている可能性のある単語をすべて削除することです。

私のマシンで4分強で実行されます。単語のリストを取得するためのWebリクエストはカウントしませんが、4:20ではありません。

Pastebinの言葉。

require 'net/http'

puts "Obtaining word list..."
data = Net::HTTP.get(URI'https://raw.githubusercontent.com/first20hours/google-10000-english/master/google-10000-english.txt')
puts "Word list obtained!"

puts "Starting calculation..."
time = Time.now

words = data.split.sort_by(&:size)
words.reject!{|w| words.find{|x| w!=x && x.include?(w)}}

string = words.shift

def merge_dist(prefix, suffix)
    [prefix.size,suffix.size].min.downto(0).find{|i| prefix.end_with?(suffix[0,i])}
end

while words.length > 0
    suffix = words.max_by{|w| merge_dist string, w}
    string += suffix[merge_dist(string, suffix)..-1]
    words.reject!{|w| string.include? w}
end

delta = Time.now - time

puts "Calculation completed in #{delta} seconds!"
puts "Word is #{string.size} chars long."

open("word.txt", 'w') << string

puts "Word saved to word.txt"

3

PowerShell v2 +、46152文字

param([System.Collections.ArrayList]$n)$n=$n|sort length -des;while($n){$x=$n.Count;$o+=$n[0];0..$x|%{if($o.IndexOf($n[$_])-ge0){$n.RemoveAt($_)}}}$o

入力をリストとして受け取り、ArrayListにキャストします(したがって、操作できます)。私たちsortによるそれlength-des順序をcending。次に、while入力配列にまだ単語があり、ループを実行します。繰り返しごとに、ヘルパー$xを残りの数と等しくなるように設定し、リストの次の項目を出力$oに追加してから、リストにあるすべてのものをトロールします。場合.IndexOfと等しくない-1(つまり、言葉はでどこかを発見された$o)、我々は残りの単語の私たちのリストからその単語を削除します。最後に、最後にを出力します$o

Pastebinなどにアクセスできないので、ここに一時的な単語の始まりと終わりを示します- telecommunicationscharacterizationresponsibilitiessublimedirectory...fcmxvtwvfxwujmjsuhjjrxjdbkdxqc。これは、入力から約20,000文字を削ったため、それほど悪くはないと思います。

私は改良に取り組んでいます。


0

PHP 46612文字

これはほんの始まりです。改善したいと思っています。これまでに行ったことは、別の単語のサブストリングである単語を削除することだけです。アレイのコピーを3つ作成していますが、メモリに問題はないようです。

<?php
set_time_limit(3000);

$words=file('https://raw.githubusercontent.com/first20hours/google-10000-english/master/google-10000-english.txt');
$words = array_map('trim', $words);

usort($words, function ($a, $b)
{
    if (strlen($a) == strlen($b) ){
        return 0;
    }
    return ( strlen($a) < strlen($b) )? -1 : 1;
});

$final_array=$words;
$comparison_array=$words;


  foreach($words as $key => $word){
    echo $word."<br>\n";
      foreach($comparison_array as $nestedKey => $nestedWord){
          if (strlen($nestedWord) <= strlen($word)) {
            unset($comparison_array[$nestedKey]);
            continue;
          }
          if( strpos($nestedWord,$word) !== FALSE ){
              unset($final_array[$key]);
              $restart=true;
              break;
          } 
      }    
  }


sort($final_array);
$compound='';
$compound = implode($final_array);
echo $compound;
echo "  <br><br>\n\n". strlen($compound);
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.