Невозможно удалить документы в приложении Documentum с помощью DFC - PullRequest
1 голос
/ 13 марта 2019

Я написал следующий код с подходом, приведенным в Руководстве по разработке EMC DFC 7.2.С помощью этого кода я могу удалить только 50 документов, хотя записей больше.Перед удалением беру дамп объекта id.Я не уверен, есть ли какой-либо предел с IDfDeleteOperation.Поскольку это удаление только 50 документов, я попытался использовать команду удаления DQL, даже там она ограничена 50 документами.Я попытался использовать метод destory () и destroyAllVersions (), который есть в этом документе, даже у меня это не сработало.Я написал все в основном методе.

import com.documentum.com.DfClientX;
import com.documentum.com.IDfClientX;
import com.documentum.fc.client.*;
import com.documentum.fc.common.DfException;
import com.documentum.fc.common.DfId;
import com.documentum.fc.common.IDfLoginInfo;
import com.documentum.operations.IDfCancelCheckoutNode;
import com.documentum.operations.IDfCancelCheckoutOperation;
import com.documentum.operations.IDfDeleteNode;
import com.documentum.operations.IDfDeleteOperation;

import java.io.BufferedWriter;
import java.io.FileWriter;

public class DeleteDoCAll {

    public static void main(String[] args) throws DfException {
       System.out.println("Started...");

        IDfClientX clientX  = new DfClientX();
        IDfClient dfClient = clientX.getLocalClient();
        IDfSessionManager sessionManager = dfClient.newSessionManager();
        IDfLoginInfo loginInfo = clientX.getLoginInfo();
        loginInfo.setUser("username");
        loginInfo.setPassword("password");
        sessionManager.setIdentity("repo", loginInfo);

        IDfSession dfSession = sessionManager.getSession("repo");
        System.out.println(dfSession);

        IDfDeleteOperation delo = clientX.getDeleteOperation();
        IDfCancelCheckoutOperation cco = clientX.getCancelCheckoutOperation();

       try {
           String dql = "select r_object_id from my_report where folder('/Home', descend);
           IDfQuery idfquery = new DfQuery();
           IDfCollection collection1 = null;

           try {
               idfquery.setDQL(dql);
               collection1 = idfquery.execute(dfSession, IDfQuery.DF_READ_QUERY);
               int i = 1;
               while(collection1 != null && collection1.next()) {
                   String r_object_id = collection1.getString("r_object_id");

                   StringBuilder attributes = new StringBuilder();

                   IDfDocument iDfDocument = (IDfDocument)dfSession.getObject(new DfId(r_object_id));
                   attributes.append(iDfDocument.dump());

                   BufferedWriter writer = new BufferedWriter(new FileWriter("path to file", true));
                   writer.write(attributes.toString());
                   writer.close();

                   cco.setKeepLocalFile(true);
                   IDfCancelCheckoutNode cnode;


                   if(iDfDocument.isCheckedOut()) {
                       if(iDfDocument.isVirtualDocument()) {
                           IDfVirtualDocument vdoc = iDfDocument.asVirtualDocument("CURRENT", false);
                           cnode = (IDfCancelCheckoutNode)cco.add(iDfDocument);
                       } else {
                           cnode = (IDfCancelCheckoutNode)cco.add(iDfDocument);
                       }

                       if(cnode == null) {
                           System.out.println("Node is null");
                       }
                       if(!cco.execute()) {
                           System.out.println("Cancel check out operation failed");
                       } else {
                           System.out.println("Cancelled check out for " + r_object_id);
                       }
                   }

                   delo.setVersionDeletionPolicy(IDfDeleteOperation.ALL_VERSIONS);
                   IDfDeleteNode node = (IDfDeleteNode)delo.add(iDfDocument);
                   if(node == null) {
                       System.out.println("Node is null");
                       System.out.println(i);
                       i += 1;
                   }
                   if(delo.execute()) {
                       System.out.println("Delete operation done");
                       System.out.println(i);
                       i += 1;
                   } else {
                       System.out.println("Delete operation failed");
                       System.out.println(i);
                       i += 1;
                   }
               }
           } finally {
               if(collection1 != null) {
                   collection1.close();
               }
           }

       } catch(Exception e) {
           e.printStackTrace();
       } finally {
           sessionManager.release(dfSession);
       }
   }
}

Я не знаю, где я делаю ошибку, каждый раз, когда я пытаюсь, программа останавливается на 50-й итерации.Можете ли вы помочь мне удалить все документы надлежащим образом?Большое спасибо!

Ответы [ 3 ]

1 голос
/ 13 марта 2019

Сначала выберите все идентификаторы документов, например, в List<IDfId> и закройте коллекцию. Не выполняйте другие дорогостоящие операции внутри открытой коллекции, потому что тогда вы излишне блокируете ее.

Это причина, почему он сделал только 50 документов. Поскольку у вас была одна основная открытая коллекция, и каждое выполнение операции удаления открывало другую коллекцию, и это, вероятно, достигло определенного предела. Итак, как я уже сказал, лучше сначала использовать коллекцию, а затем работать с этими данными:

    List<IDfId> ids = new ArrayList<>();
    try {
        query.setDQL("SELECT r_object_id FROM my_report WHERE FOLDER('/Home', DESCEND)");
        collection = query.execute(session, IDfQuery.DF_READ_QUERY);
        while (collection.next()) {
            ids.add(collection.getId("r_object_id"));
        }
    } finally {
        if (collection != null) {
            collection.close();
        }
    }

После этого вы можете перебирать список и выполнять все действия с нужным вам документом. Но не выполняйте операцию удаления в каждой итерации - это неэффективно. Вместо этого добавьте все документы в одну операцию и выполните ее один раз в конце.

    IDfDeleteOperation deleteOperation = clientX.getDeleteOperation();
    deleteOperation.setVersionDeletionPolicy(IDfDeleteOperation.ALL_VERSIONS);
    for (IDfId id : ids) {
        IDfDocument document = (IDfDocument) session.getObject(id);
        ...
        deleteOperation.add(document);
    }
    deleteOperation.execute();

То же самое для IDfCancelCheckoutOperation.

И еще одна вещь - когда вы используете FileWriter, используйте close() в блоке finally или используйте try-with-resources, как это:

    try (BufferedWriter writer = new BufferedWriter(new FileWriter("file.path", true))) {
        writer.write(document.dump());
    } catch (IOException e) {
        throw new UncheckedIOException(e);
    }

Использование StringBuilder - хорошая идея, но создайте его только один раз в начале, добавьте все атрибуты в каждой итерации, а затем запишите содержимое StringBuilder в файл в конце, а не во время каждой итерации - это медленный.

0 голосов
/ 13 марта 2019

Возможно, вы сталкиваетесь с лимитом набора результатов для клиента DFC. Попробуйте добавить в dfc.properties эти строки и перезапустите ваш код, чтобы посмотреть, сможете ли удалить более 50 строк и после того, как он подстроится под ваши нужды.

dfc.search.max_results = 100
dfc.search.max_results_per_source = 100
0 голосов
/ 13 марта 2019

Вы можете просто сделать это изнутри своего кода:

удалить объекты my_report, в которых папка ('/ Home', нисходящая)

не нуждается в извлечении информации, которую вы снова выбрасываете; -)

...